scrapy问题的收集归类整理,scrapy是一个python中一个非常经典也是功能非常强大的一个数据采集软件。
scrapy主动停止爬取的几种方法:scrapy.exceptions.CloseSpider(reason=\'cancelled\'),Scrapy的CloseSpider扩展会在满足条件时自动终止爬虫程序。可以设置CLOSESPIDER_TIMEOUT(秒)、CLOSESPIDER_ITEMCOUNT、CLOSESPIDER_PAGECOUNT、CLOSESPIDER_ERRORCOUNT
selenium提示错误invalid argument: can\'t kill an exited proce,发现出现这个错误提示的人还是挺少,可我偏偏也就遇到了,查了挺多资料,发现这类错误有几种情况:这个问题很有可能就是因为没有显示器而出现的错误提示,一般是在Linux环境下,没有显示环境所以就出现了这个错误;
自动到达页面的底部命令而自动加载新的页面,可以用如下的JS命令自动到达页面的底部:window.scrollTo(0, document.body.scrollHeight)