实现原理及思路请参考我的另外几篇爬虫实践博客

py3+urllib+bs4+反爬,20+行代码教你爬取豆瓣妹子图:http://www.cnblogs.com/UncleYong/p/6892688.html
py3+requests+json+xlwt,爬取拉勾招聘信息:http://www.cnblogs.com/UncleYong/p/6960044.html
py3+urllib+re,轻轻松松爬取双色球最近100期中奖号码:http://www.cnblogs.com/UncleYong/p/6958242.html

实现代码如下:

#-*- coding:utf-8 -*-
import requests, threading, time
from lxml import etree
from bs4 import BeautifulSoup # 获取源码
def get_html(url):
# url = 'http://www.doutula.com/article/list/?page=1'
headers = {'user-agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'}
request = requests.get(url=url, headers=headers) # 网址发送get请求
response = request.content.decode('utf-8') # 获取源码
# print(response)
return response # 匹配图片url
def get_img_html(html):
# soup = BeautifulSoup(html,'html.parser')
soup = BeautifulSoup(html,'lxml') # 解析网页
all_a = soup.find_all('a',class_='list-group-item') # 获取a标签,如果有class或id来命名,一定要加上名字
# class="list-group-item"是a标签的名字
# <a class="list-group-item" href="http://www.doutula.com/article/detail/7536783">
# print(type(all_a)) # <class 'bs4.element.ResultSet'>
# print(all_a)
for i in all_a:
# print(i['href'])
img_html = get_html(i['href']) # 获取内页源码,i['href']表示获取属性值
# print(img_html)
get_img(img_html)
# 获取图片url
def get_img(html):
# soup = etree.HTML(html) # 初始化源码
# items = soup.xpath('//div[@class="artile_des"]') # //表示某个目录下,从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。
# # []表示过滤条件
# for item in items:
# imgurl_list = item.xpath('table/tbody/tr/td/a/img/@onerror')
# # print(imgurl_list)
# # start_save_img(imgurl_list)
soup = BeautifulSoup(html, 'lxml')
items = soup.find('div',class_='swiper-slide').find_all('div',class_='artile_des')
# 不能写成这样:find_all后面不能跟find,因为find是找一个,find_all是找多个,从多个中找一个是不对的
# items = soup.find('div',class_='swiper-slide').find_all('div',class_='artile_des').find('img')['src']
# print(items)
imgurl_list = []
for i in items:
imgurl = i.find('img')['src'] # img标签下的src属性
# print(type(imgurl)) # <class 'str'>
# print(imgurl)
imgurl_list.append(imgurl)
start_save_img(imgurl_list) # 这里是对每一组套图做多线程 # 下载图片
x = 1
def save_img(img_url):
# global x # 全局变量
# x +=1
# img_url = img_url.split('=')[-1][1:-2].replace('jp','jpg') # 以=分割
# print('正在下载'+'http:'+img_url)
# img_content = requests.get('http:'+img_url).content
# with open('doutu/%s.jpg'%x, 'wb') as f:# urllib下的retrieve也可以下载
# f.write(img_content)
global x # 全局变量
x +=1 print('正在下载:'+img_url)
geshi = img_url.split('.')[-1] # 因为图片格式不一样,所以切片,把链接中图片后缀获取到,用于下面拼接文件名
img_content = requests.get(img_url).content
with open('doutu/%s.%s'%(x,geshi), 'wb') as f: # urllib下的retrieve也可以下载
f.write(img_content) def start_save_img(imgurl_list):
for i in imgurl_list:
# print(i)
th = threading.Thread(target=save_img,args=(i,)) # i后面加逗号表示args是一个元组
# target是可调用对象,是一个函数名,线程启动后执行,
th.start()
th.join()
# 主函数
def main():
start_url = 'http://www.doutula.com/article/list/?page={}'
for i in range(1,2):
# print(start_url.format(i))
start_html = get_html(start_url.format(i))
get_img_html(start_html) # 获取内页图片的url if __name__ == '__main__': # 判断文件入口
start_time = time.time()
main()
end_time = time.time()
print(start_time)
print(end_time)
print(end_time-start_time)

py3+requests+urllib+bs4+threading,爬取斗图图片的更多相关文章

  1. python多线程爬取斗图啦数据

    python多线程爬取斗图啦网的表情数据 使用到的技术点 requests请求库 re 正则表达式 pyquery解析库,python实现的jquery threading 线程 queue 队列 ' ...

  2. 爬取斗图网图片,使用xpath格式来匹配内容,对请求伪装成浏览器, Referer 防跨域请求

    6.21自我总结 一.爬取斗图网 1.摘要 使用xpath匹配规则查找对应信息文件 将请求伪装成浏览器 Referer 防跨域请求 2.爬取代码 #导入模块 import requests #爬取网址 ...

  3. python爬取斗图网中的 “最新套图”和“最新表情”

    1.分析斗图网 斗图网地址:http://www.doutula.com 网站的顶部有这两个部分: 先分析“最新套图” 发现地址栏变成了这个链接,我们在点击第二页 可见,每一页的地址栏只有后面的pag ...

  4. Python爬取 斗图表情,让你成为斗图大佬

    话不多说,上结果(只爬了10页内容) 上代码:(可直接运行)   用到Xpath #encoding:utf-8 # __author__ = 'donghao' # __time__ = 2018/ ...

  5. 使用requests+BeaBeautiful Soup爬取妹子图图片

    1. Requests:让 HTTP 服务人类 Requests 继承了urllib2的所有特性.Requests支持HTTP连接保持和连接池,支持使用cookie保持会话,支持文件上传,支持自动确定 ...

  6. 爬虫之爬取豆瓣top250电影排行榜及爬取斗图啦表情包解读及爬虫知识点补充

    今日内容概要 如何将爬取的数据直接导入Excel表格 #如何通过Python代码操作Excel表格 #前戏 import requests import time from openpyxl impo ...

  7. shell爬取斗图网

    #!/bin/bash read -p "请输入要爬取的页面数(默认为10):" page_num page_num=${page_num:-} echo $page_num re ...

  8. 【原创】py3+requests+json+xlwt,爬取拉勾招聘信息

    在拉勾搜索职位时,通过谷歌F12抓取请求信息 发现请求是一个post请求,参数为: 返回的是json数据 有了上面的基础,我们就可以构造请求了 然后对获取到的响应反序列化,这样就获取到了json格式的 ...

  9. py3+requests+json+xlwt,爬取拉勾招聘信息

    在拉勾搜索职位时,通过谷歌F12抓取请求信息 发现请求是一个post请求,参数为: 返回的是json数据 有了上面的基础,我们就可以构造请求了 然后对获取到的响应反序列化,这样就获取到了json格式的 ...

随机推荐

  1. CentOS 7.2:Failed to start IPv4 firewall with iptables

    问题 系统是centos7.2,且已经安装了iptables服务,但是在执行启动命令后,却报了iptables服务无法正常启动的错误. 启动命令如下: systemctl start iptables ...

  2. 【微服务】使用spring cloud搭建微服务框架,整理学习资料

    写在前面 使用spring cloud搭建微服务框架,是我最近最主要的工作之一,一开始我使用bubbo加zookeeper制作了一个基于dubbo的微服务框架,然后被架构师否了,架构师曰:此物过时.随 ...

  3. SpringBoot日记——ElasticSearch全文检索

    看到标题的那一串英文,对于新手来说一定比较陌生,而说起检索,应该都知道吧. 这个ElasticSearch目前我们的首选,他主要有可以提供快速的存储.搜索.分析海量数据的作用.他是一个分布式搜索服务, ...

  4. 破解Zip加密文件常用的几种方法

    前言 在互联网的浪潮中,大家也许碰到过这种情况: 从网络上下载了一个zip文件,最后却发现它是用密码保护的,或者自己用密码加密了一个很重要zip文件,但是一段时间后忘记了密码,无法打开.这个时候,我们 ...

  5. for...else 小记

    for ......: ...... else: ...... 在 for 循环中,若没有执行 break ,正常结束,则会执行 else 中的语句. 若执行了 break , 则 不会 执行 els ...

  6. PAT甲级题解-1123. Is It a Complete AVL Tree (30)-AVL树+满二叉树

    博主欢迎转载,但请给出本文链接,我尊重你,你尊重我,谢谢~http://www.cnblogs.com/chenxiwenruo/p/6806292.html特别不喜欢那些随便转载别人的原创文章又不给 ...

  7. CF 1047 C. Enlarge GCD

    传送门 [http://codeforces.com/contest/1047/problem/C] 题意 给你n个数,移除最少的数字使剩下的数字GCD大于初始GCD 思路 需要一点暴力的技巧,先求出 ...

  8. Daily scrum 12.21

    今天ui组反映了一个数据库数据类型的问题,开发人员在完成任务后再去处理. Member Today’s task 林豪森 与学霸其他小组交流,处理整合问题 宋天舒 修复数据库问题 张迎春 修复数据库问 ...

  9. 战神答题APP 无敌结束版

    APP发布了哦~~     多多捧场~ http://anzhuoyuan.com/app/info/appid/242381.html 还有github https://github.com/784 ...

  10. HDOJ2010_水仙花数

    一道水题.一直出现Output Limit Exceeded的原因是在while循环中没有终止条件的时候会自动判断并报错,写的时候忘记加!=EOF结束标识了. HDOJ2010_水仙花数 #inclu ...