python爬虫爬取网站内容时,如果什么也没带,即不带报头headers,往往会被网站管理维护人员认定为机器爬虫.因为,此时python默认的user-agent如Python-urllib/2.1一样.因此,网站管理人员会根据请求的user-agent判定你是不是机器爬虫.所以,此时往往就需要伪装user-agent,模拟成真实的浏览器去取出内容.下面是一些比较常用的浏览器的user-agent: Chrome "Mozilla/5.0 (Windows NT 6.1; WOW64) Appl…