1.写一个爬虫,需要做很多事情.比如:发送网络请求,数据解析,数据存储,反扒虫虫机制(更换IP代理,设置请求头等),异步请求等.这些工作如果每次都要从零开始写的话,比较浪费时间.因此scrapy吧一些基础的东西封装好了,在他上面写爬虫可以变的更加高效(爬去效率和开发效率).因此真正在公司里,一些上了量的爬虫,都是使用scrapy框架来解决. 2.scrapy框架模块功能:Scrapy Engine(引擎):Scrapy框架的核心部分.负责在Spider和ItemPipeline,Download