py3+requests+urllib+bs4+threading,爬取斗图图片
实现原理及思路请参考我的另外几篇爬虫实践博客
py3+urllib+bs4+反爬,20+行代码教你爬取豆瓣妹子图:http://www.cnblogs.com/UncleYong/p/6892688.html
py3+requests+json+xlwt,爬取拉勾招聘信息:http://www.cnblogs.com/UncleYong/p/6960044.html
py3+urllib+re,轻轻松松爬取双色球最近100期中奖号码:http://www.cnblogs.com/UncleYong/p/6958242.html
实现代码如下:
#-*- coding:utf-8 -*-
import requests, threading, time
from lxml import etree
from bs4 import BeautifulSoup # 获取源码
def get_html(url):
# url = 'http://www.doutula.com/article/list/?page=1'
headers = {'user-agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'}
request = requests.get(url=url, headers=headers) # 网址发送get请求
response = request.content.decode('utf-8') # 获取源码
# print(response)
return response # 匹配图片url
def get_img_html(html):
# soup = BeautifulSoup(html,'html.parser')
soup = BeautifulSoup(html,'lxml') # 解析网页
all_a = soup.find_all('a',class_='list-group-item') # 获取a标签,如果有class或id来命名,一定要加上名字
# class="list-group-item"是a标签的名字
# <a class="list-group-item" href="http://www.doutula.com/article/detail/7536783">
# print(type(all_a)) # <class 'bs4.element.ResultSet'>
# print(all_a)
for i in all_a:
# print(i['href'])
img_html = get_html(i['href']) # 获取内页源码,i['href']表示获取属性值
# print(img_html)
get_img(img_html)
# 获取图片url
def get_img(html):
# soup = etree.HTML(html) # 初始化源码
# items = soup.xpath('//div[@class="artile_des"]') # //表示某个目录下,从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。
# # []表示过滤条件
# for item in items:
# imgurl_list = item.xpath('table/tbody/tr/td/a/img/@onerror')
# # print(imgurl_list)
# # start_save_img(imgurl_list)
soup = BeautifulSoup(html, 'lxml')
items = soup.find('div',class_='swiper-slide').find_all('div',class_='artile_des')
# 不能写成这样:find_all后面不能跟find,因为find是找一个,find_all是找多个,从多个中找一个是不对的
# items = soup.find('div',class_='swiper-slide').find_all('div',class_='artile_des').find('img')['src']
# print(items)
imgurl_list = []
for i in items:
imgurl = i.find('img')['src'] # img标签下的src属性
# print(type(imgurl)) # <class 'str'>
# print(imgurl)
imgurl_list.append(imgurl)
start_save_img(imgurl_list) # 这里是对每一组套图做多线程 # 下载图片
x = 1
def save_img(img_url):
# global x # 全局变量
# x +=1
# img_url = img_url.split('=')[-1][1:-2].replace('jp','jpg') # 以=分割
# print('正在下载'+'http:'+img_url)
# img_content = requests.get('http:'+img_url).content
# with open('doutu/%s.jpg'%x, 'wb') as f:# urllib下的retrieve也可以下载
# f.write(img_content)
global x # 全局变量
x +=1 print('正在下载:'+img_url)
geshi = img_url.split('.')[-1] # 因为图片格式不一样,所以切片,把链接中图片后缀获取到,用于下面拼接文件名
img_content = requests.get(img_url).content
with open('doutu/%s.%s'%(x,geshi), 'wb') as f: # urllib下的retrieve也可以下载
f.write(img_content) def start_save_img(imgurl_list):
for i in imgurl_list:
# print(i)
th = threading.Thread(target=save_img,args=(i,)) # i后面加逗号表示args是一个元组
# target是可调用对象,是一个函数名,线程启动后执行,
th.start()
th.join()
# 主函数
def main():
start_url = 'http://www.doutula.com/article/list/?page={}'
for i in range(1,2):
# print(start_url.format(i))
start_html = get_html(start_url.format(i))
get_img_html(start_html) # 获取内页图片的url if __name__ == '__main__': # 判断文件入口
start_time = time.time()
main()
end_time = time.time()
print(start_time)
print(end_time)
print(end_time-start_time)

py3+requests+urllib+bs4+threading,爬取斗图图片的更多相关文章
- python多线程爬取斗图啦数据
python多线程爬取斗图啦网的表情数据 使用到的技术点 requests请求库 re 正则表达式 pyquery解析库,python实现的jquery threading 线程 queue 队列 ' ...
- 爬取斗图网图片,使用xpath格式来匹配内容,对请求伪装成浏览器, Referer 防跨域请求
6.21自我总结 一.爬取斗图网 1.摘要 使用xpath匹配规则查找对应信息文件 将请求伪装成浏览器 Referer 防跨域请求 2.爬取代码 #导入模块 import requests #爬取网址 ...
- python爬取斗图网中的 “最新套图”和“最新表情”
1.分析斗图网 斗图网地址:http://www.doutula.com 网站的顶部有这两个部分: 先分析“最新套图” 发现地址栏变成了这个链接,我们在点击第二页 可见,每一页的地址栏只有后面的pag ...
- Python爬取 斗图表情,让你成为斗图大佬
话不多说,上结果(只爬了10页内容) 上代码:(可直接运行) 用到Xpath #encoding:utf-8 # __author__ = 'donghao' # __time__ = 2018/ ...
- 使用requests+BeaBeautiful Soup爬取妹子图图片
1. Requests:让 HTTP 服务人类 Requests 继承了urllib2的所有特性.Requests支持HTTP连接保持和连接池,支持使用cookie保持会话,支持文件上传,支持自动确定 ...
- 爬虫之爬取豆瓣top250电影排行榜及爬取斗图啦表情包解读及爬虫知识点补充
今日内容概要 如何将爬取的数据直接导入Excel表格 #如何通过Python代码操作Excel表格 #前戏 import requests import time from openpyxl impo ...
- shell爬取斗图网
#!/bin/bash read -p "请输入要爬取的页面数(默认为10):" page_num page_num=${page_num:-} echo $page_num re ...
- 【原创】py3+requests+json+xlwt,爬取拉勾招聘信息
在拉勾搜索职位时,通过谷歌F12抓取请求信息 发现请求是一个post请求,参数为: 返回的是json数据 有了上面的基础,我们就可以构造请求了 然后对获取到的响应反序列化,这样就获取到了json格式的 ...
- py3+requests+json+xlwt,爬取拉勾招聘信息
在拉勾搜索职位时,通过谷歌F12抓取请求信息 发现请求是一个post请求,参数为: 返回的是json数据 有了上面的基础,我们就可以构造请求了 然后对获取到的响应反序列化,这样就获取到了json格式的 ...
随机推荐
- Luogu P1439 【模板】最长公共子序列
又是模板题呵,但这次的难度有点增加. 先看题目第一个想到DP的经典算法,要O(n^2),然后想其它的算法. 其实我们衢州市一次联考有一题很像这题,不过还要难一点. 思想是离散化+最长不下降子序列(在这 ...
- 通过清华TUNA镜像源下载Android源码
建议参考官方教程:https://mirrors.tuna.tsinghua.edu.cn/help/AOSP/ 以下为自己测试时执行的步骤: 1.下载repo $ curl https://mirr ...
- Docker容器学习梳理 - Dockerfile构建镜像
在Docker的运用中,从下载镜像,启动容器,在容器中输入命令来运行程序,这些命令都是手工一条条往里输入的,无法重复利用,而且效率很低.所以就需要一 种文件或脚本,我们把想执行的操作以命令的方式写入其 ...
- NTP系统时间同步-操作记录
在初始化一台linux服务器后,发现这台服务器的时间不对[root@dev ~]# date2016年 10月 11日 星期二 07:04:34 CST Linux时钟分为系统时钟 (System C ...
- LVM常规操作记录梳理(扩容/缩容/快照等)
基本介绍Linux用户安装Linux 操作系统时遇到的一个最常见的难以决定的问题就是如何正确地给评估各分区大小,以分配合适的硬盘空间.随着 Linux的逻辑盘卷管理功能的出现,这些问题都迎刃而解, l ...
- Post Tuned Hashing,PTH
[ACM 2018] Post Tuned Hashing_A New Approach to Indexing High-dimensional Data [paper] [code] Zhendo ...
- QT应用在windows和Linux平台的发布指南
环境:QT5.4 Windows下Qt应用的发布 Qt安装路径为:C:\Qt\Qt5.4.0\5.4\mingw491_32\bin 首先确保这个路径不在环境变量中,否则可能不成功. 执行" ...
- PAT L2-015 互评成绩
https://pintia.cn/problem-sets/994805046380707840/problems/994805062432309248 学生互评作业的简单规则是这样定的:每个人的作 ...
- nginx gzip 以及 tcp 反向代理的 model
同事为了提高性能发给我一model 简单改了一下. 记录一下 #user nobody; worker_processes ; events { worker_connections ; } http ...
- [转帖]2016年时的新闻:ASP.NET Core 1.0、ASP.NET MVC Core 1.0和Entity Framework Core 1.0
ASP.NET Core 1.0.ASP.NET MVC Core 1.0和Entity Framework Core 1.0 http://www.cnblogs.com/webapi/p/5673 ...