实现原理及思路请参考我的另外几篇爬虫实践博客

py3+urllib+bs4+反爬,20+行代码教你爬取豆瓣妹子图:http://www.cnblogs.com/UncleYong/p/6892688.html
py3+requests+json+xlwt,爬取拉勾招聘信息:http://www.cnblogs.com/UncleYong/p/6960044.html
py3+urllib+re,轻轻松松爬取双色球最近100期中奖号码:http://www.cnblogs.com/UncleYong/p/6958242.html

实现代码如下:

#-*- coding:utf-8 -*-
import requests, threading, time
from lxml import etree
from bs4 import BeautifulSoup # 获取源码
def get_html(url):
# url = 'http://www.doutula.com/article/list/?page=1'
headers = {'user-agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'}
request = requests.get(url=url, headers=headers) # 网址发送get请求
response = request.content.decode('utf-8') # 获取源码
# print(response)
return response # 匹配图片url
def get_img_html(html):
# soup = BeautifulSoup(html,'html.parser')
soup = BeautifulSoup(html,'lxml') # 解析网页
all_a = soup.find_all('a',class_='list-group-item') # 获取a标签,如果有class或id来命名,一定要加上名字
# class="list-group-item"是a标签的名字
# <a class="list-group-item" href="http://www.doutula.com/article/detail/7536783">
# print(type(all_a)) # <class 'bs4.element.ResultSet'>
# print(all_a)
for i in all_a:
# print(i['href'])
img_html = get_html(i['href']) # 获取内页源码,i['href']表示获取属性值
# print(img_html)
get_img(img_html)
# 获取图片url
def get_img(html):
# soup = etree.HTML(html) # 初始化源码
# items = soup.xpath('//div[@class="artile_des"]') # //表示某个目录下,从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。
# # []表示过滤条件
# for item in items:
# imgurl_list = item.xpath('table/tbody/tr/td/a/img/@onerror')
# # print(imgurl_list)
# # start_save_img(imgurl_list)
soup = BeautifulSoup(html, 'lxml')
items = soup.find('div',class_='swiper-slide').find_all('div',class_='artile_des')
# 不能写成这样:find_all后面不能跟find,因为find是找一个,find_all是找多个,从多个中找一个是不对的
# items = soup.find('div',class_='swiper-slide').find_all('div',class_='artile_des').find('img')['src']
# print(items)
imgurl_list = []
for i in items:
imgurl = i.find('img')['src'] # img标签下的src属性
# print(type(imgurl)) # <class 'str'>
# print(imgurl)
imgurl_list.append(imgurl)
start_save_img(imgurl_list) # 这里是对每一组套图做多线程 # 下载图片
x = 1
def save_img(img_url):
# global x # 全局变量
# x +=1
# img_url = img_url.split('=')[-1][1:-2].replace('jp','jpg') # 以=分割
# print('正在下载'+'http:'+img_url)
# img_content = requests.get('http:'+img_url).content
# with open('doutu/%s.jpg'%x, 'wb') as f:# urllib下的retrieve也可以下载
# f.write(img_content)
global x # 全局变量
x +=1 print('正在下载:'+img_url)
geshi = img_url.split('.')[-1] # 因为图片格式不一样,所以切片,把链接中图片后缀获取到,用于下面拼接文件名
img_content = requests.get(img_url).content
with open('doutu/%s.%s'%(x,geshi), 'wb') as f: # urllib下的retrieve也可以下载
f.write(img_content) def start_save_img(imgurl_list):
for i in imgurl_list:
# print(i)
th = threading.Thread(target=save_img,args=(i,)) # i后面加逗号表示args是一个元组
# target是可调用对象,是一个函数名,线程启动后执行,
th.start()
th.join()
# 主函数
def main():
start_url = 'http://www.doutula.com/article/list/?page={}'
for i in range(1,2):
# print(start_url.format(i))
start_html = get_html(start_url.format(i))
get_img_html(start_html) # 获取内页图片的url if __name__ == '__main__': # 判断文件入口
start_time = time.time()
main()
end_time = time.time()
print(start_time)
print(end_time)
print(end_time-start_time)

py3+requests+urllib+bs4+threading,爬取斗图图片的更多相关文章

  1. python多线程爬取斗图啦数据

    python多线程爬取斗图啦网的表情数据 使用到的技术点 requests请求库 re 正则表达式 pyquery解析库,python实现的jquery threading 线程 queue 队列 ' ...

  2. 爬取斗图网图片,使用xpath格式来匹配内容,对请求伪装成浏览器, Referer 防跨域请求

    6.21自我总结 一.爬取斗图网 1.摘要 使用xpath匹配规则查找对应信息文件 将请求伪装成浏览器 Referer 防跨域请求 2.爬取代码 #导入模块 import requests #爬取网址 ...

  3. python爬取斗图网中的 “最新套图”和“最新表情”

    1.分析斗图网 斗图网地址:http://www.doutula.com 网站的顶部有这两个部分: 先分析“最新套图” 发现地址栏变成了这个链接,我们在点击第二页 可见,每一页的地址栏只有后面的pag ...

  4. Python爬取 斗图表情,让你成为斗图大佬

    话不多说,上结果(只爬了10页内容) 上代码:(可直接运行)   用到Xpath #encoding:utf-8 # __author__ = 'donghao' # __time__ = 2018/ ...

  5. 使用requests+BeaBeautiful Soup爬取妹子图图片

    1. Requests:让 HTTP 服务人类 Requests 继承了urllib2的所有特性.Requests支持HTTP连接保持和连接池,支持使用cookie保持会话,支持文件上传,支持自动确定 ...

  6. 爬虫之爬取豆瓣top250电影排行榜及爬取斗图啦表情包解读及爬虫知识点补充

    今日内容概要 如何将爬取的数据直接导入Excel表格 #如何通过Python代码操作Excel表格 #前戏 import requests import time from openpyxl impo ...

  7. shell爬取斗图网

    #!/bin/bash read -p "请输入要爬取的页面数(默认为10):" page_num page_num=${page_num:-} echo $page_num re ...

  8. 【原创】py3+requests+json+xlwt,爬取拉勾招聘信息

    在拉勾搜索职位时,通过谷歌F12抓取请求信息 发现请求是一个post请求,参数为: 返回的是json数据 有了上面的基础,我们就可以构造请求了 然后对获取到的响应反序列化,这样就获取到了json格式的 ...

  9. py3+requests+json+xlwt,爬取拉勾招聘信息

    在拉勾搜索职位时,通过谷歌F12抓取请求信息 发现请求是一个post请求,参数为: 返回的是json数据 有了上面的基础,我们就可以构造请求了 然后对获取到的响应反序列化,这样就获取到了json格式的 ...

随机推荐

  1. java jdk 配置

    1.配置 C:\Program Files\Java\jdk1.8.0_131\bin 路径 到环境变量 Path

  2. 你应该学会的接口调试神器——Postman高级用法

    postman这个神器相信大家都用过,程序员作为非专业的测试人员,非常需要这么一款简单轻量级的restful测试工具,但是不知道你是否知道,postman的强大之处不只是测试一下接口,还有其他非常赞的 ...

  3. Error【0006】:could not create or update nagios.configtest

    1. 错误背景 在本系列博客<Nagios监控系统部署(源码).md>中(笔记内链:Nagios监控系统部署(源码).md,博客园地址:https://www.cnblogs.com/li ...

  4. EF_DataFrist遇到的问题

    正在 Code First 模式下将此上下文与从 EDMX 文件生成的用于 Database First 或 Model First 开发的代码一起使用.这将无法正常工作.若要解决此问题,请不要删除引 ...

  5. centos下部署NTP时间服务器同步环境记录

    1)服务端部署 安装所需软件包 [root@test ~]# yum -y install ntp ntpdate 服务端自己先手工同步一次时间. [root@test ~]# ntpdate ntp ...

  6. css3 动画效果实现

    前沿 在工作中,经常有一些需要切换的交互样式.如果直接在两种状态之间切换,就显得有点生硬.加上一些动画效果就会好很多. 示例1:点击的三角切换 实现过程 第一步实现这个三角形 用的svg 的多边形画法 ...

  7. Java实验二

    北京电子科技学院(BESTI) 实     验    报     告 课程:Java程序设计 班级:1351    姓名:黄君如  学号:20135117 成绩:             指导教师:娄 ...

  8. SQLserver 进程被死锁问题解决

    事务(进程ID xx)与另一个进程被死锁在 锁|通信缓冲区 资源上,并且已被选座死锁牺牲品.请重新运行该事务.Sqlserver 当出现这个错误时,如下图: 解决办法:更改数据库事务隔离级别 alte ...

  9. CMake系列之三:多个源文件-同一目录

    同一目录,多个源文件 把前面的main.c里面的power函数单独写入到一个MathFunctions.c源文件里,目录下的文件结构如下: ./Demo2 | +--- main.c | +--- M ...

  10. Mark 韦氏拼音 邮政式拼音 和汉语拼音

    一直感觉很多大学名字不像是汉语拼音也不像是英文,百度了下原来是三种不同的拼音方式: 转载百度百科: 邮政式拼音和威妥玛拼音法并未完全消失.北京大学(Peking University).清华大学(Ts ...