前面已经讲过了爬虫的两大基础模块: requests模块:用来伪造请求爬取数据 bs4模块:用来整理,提取数据 当我们真正的开始有需求的时候通常都是批量爬取url这样的.那如何批量爬取呢? 按照正常的思路,我们开始用不同的实现方式,写一些实例代码. 1.串行 串行,如字面意思,就是写个for 循环一个个执行: import requests def fetch_async(url): response = requests.get(url) return response url_list =…