代码:

import os
import re
import json
import time
from hashlib import md5
from multiprocessing import Pool import requests
from requests.exceptions import RequestException
from pymongo import MongoClient # 配置信息
OFFSET_START = 0 # 爬去页面的起始下标
OFFSET_END = 20 # 爬去页面的结束下标
KEYWORD = '街拍' # 搜索的关键字 # mongodb相关配置
MONGO_URL = 'localhost'
MONGO_DB = 'toutiao' # 数据库名称
MONGO_TABLE = 'jiepai' # 集合名称 # 图片保存的文件夹名称
IMAGE_PATH = 'images' headers = {
"User-Agent": 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)'
} client = MongoClient(host=MONGO_URL)
db = client[MONGO_DB]
jiepai_table = db[MONGO_TABLE] if not os.path.exists(IMAGE_PATH):
os.mkdir(IMAGE_PATH) def get_html(url, params=None):
try:
response = requests.get(url, params=params, headers=headers)
if response.status_code == 200:
return response.text
return None
except RequestException as e:
print("请求%s失败: " % url, e)
return None # 获取索引页内容
def get_index_page(offset, keyword):
basic_url = 'http://www.toutiao.com/search_content/'
params = {
'offset': offset,
'format': 'json',
'keyword': keyword,
'autoload': 'true',
'count': 20,
'cur_tab': 3
}
return get_html(basic_url, params) def parse_index_page(html):
'''
解析索引页内容
返回: 索引页中包含的所有详情页url
'''
if not html:
return
data = json.loads(html)
if 'data' in data:
for item in data['data']:
article_url = item['article_url']
if 'toutiao.com/group' in article_url:
yield article_url # 获取详情页
def get_detail_page(url):
return get_html(url) # 解析详情页 def parse_detail_page(url, html):
'''
解析详情页
返回对应的标题,url和包含的图片url
'''
title_reg = re.compile('<title>(.*?)</title>')
title = title_reg.search(html).group(1)
gallery_reg = re.compile('var gallery = (.*?);')
gallery = gallery_reg.search(html)
if gallery and 'sub_images' in gallery.group(1):
images = json.loads(gallery.group(1))['sub_images']
image_list = [image['url'] for image in images]
return {
'title': title,
'url': url,
'images': image_list
}
return None def save_to_mongodb(content):
jiepai_table.insert(content)
print("存储到mongdob成功", content) def download_images(image_list):
for image_url in image_list:
try:
response = requests.get(image_url)
if response.status_code == 200:
save_image(response.content)
except RequestException as e:
print("下载图片失败: ", e) def save_image(content):
'''
对图片的二进制内容做hash,构造图片路径,以此保证图片不重复
'''
file_path = '{0}/{1}/{2}.{3}'.format(os.getcwd(),
IMAGE_PATH, md5(content).hexdigest(), 'jpg')
# 去除重复的图片
if not os.path.exists(file_path):
with open(file_path, 'wb') as f:
f.write(content) def jiepai(offset):
html = get_index_page(offset, KEYWORD)
if html is None:
return
page_urls = list(parse_index_page(html))
# print("详情页url列表:" )
# for page_url in page_urls:
# print(page_url) for page in page_urls:
print('get detail page:', page)
html = get_detail_page(page)
if html is None:
continue
content = parse_detail_page(page, html)
if content:
save_to_mongodb(content)
download_images(content['images'])
time.sleep(1)
print('-------------------------------------') if __name__ == '__main__':
offset_list = range(OFFSET_START, OFFSET_END)
pool = Pool()
pool.map(jiepai, offset_list)

备注:

其实通过url请求返回的json数据中已经包含了图片列表

import requests

basic_url = 'http://www.toutiao.com/search_content/?offset={}&format=json&keyword=%E8%A1%97%E6%8B%8D&autoload=true&count=20&cur_tab=3'
url = basic_url.format(0)
html = requests.get(url).json()
items = html['data']
for item in items:
title = item['media_name']
image_list = [image_detail['url'] for image_detail in item['image_detail']]
print(title, image_list)

通过分析Ajax请求 抓取今日头条街拍图集的更多相关文章

  1. 爬虫(八):分析Ajax请求抓取今日头条街拍美图

    (1):分析网页 分析ajax的请求网址,和需要的参数.通过不断向下拉动滚动条,发现请求的参数中offset一直在变化,所以每次请求通过offset来控制新的ajax请求. (2)上代码 a.通过aj ...

  2. python3爬虫-分析Ajax,抓取今日头条街拍美图

    # coding=utf-8 from urllib.parse import urlencode import requests from requests.exceptions import Re ...

  3. 分析ajax请求抓取今日头条关键字美图

    # 目标:抓取今日头条关键字美图 # 思路: # 一.分析目标站点 # 二.构造ajax请求,用requests请求到索引页的内容,正则+BeautifulSoup得到索引url # 三.对索引url ...

  4. python学习(26)分析ajax请求抓取今日头条cosplay小姐姐图片

    分析ajax请求格式,模拟发送http请求,从而获取网页代码,进而分析取出需要的数据和图片.这里分析ajax请求,获取cosplay美女图片. 登陆今日头条,点击搜索,输入cosplay 下面查看浏览 ...

  5. Python爬虫学习==>第十一章:分析Ajax请求-抓取今日头条信息

    学习目的: 解决AJAX请求的爬虫,网页解析库的学习,MongoDB的简单应用 正式步骤 Step1:流程分析 抓取单页内容:利用requests请求目标站点,得到单个页面的html代码,返回结果: ...

  6. 分析Ajax来爬取今日头条街拍美图并保存到MongDB

    前提:.需要安装MongDB 注:因今日投票网页发生变更,如下代码不保证能正常使用 #!/usr/bin/env python #-*- coding: utf-8 -*- import json i ...

  7. python爬虫之分析Ajax请求抓取抓取今日头条街拍美图(七)

    python爬虫之分析Ajax请求抓取抓取今日头条街拍美图 一.分析网站 1.进入浏览器,搜索今日头条,在搜索栏搜索街拍,然后选择图集这一栏. 2.按F12打开开发者工具,刷新网页,这时网页回弹到综合 ...

  8. 15-分析Ajax请求并抓取今日头条街拍美图

    流程框架: 抓取索引页内容:利用requests请求目标站点,得到索引网页HTML代码,返回结果. 抓取详情页内容:解析返回结果,得到详情页的链接,并进一步抓取详情页的信息. 下载图片与保存数据库:将 ...

  9. Python Spider 抓取今日头条街拍美图

    """ 抓取今日头条街拍美图 """ import os import time import requests from hashlib ...

随机推荐

  1. 11月15Sprint计划会议及内容·

    今天对整体设计做了明确的规划 工作分配: 1规划 2规则制定 3窗体设计 4模型设计 5代码编写 6美化 7产品交付 8后期宣传 王超群前四项 吕浩宇后四项

  2. 【Jmeter】插件

    一.插件管理 前提:很多时候,尤其是性能测试的时候,我们需要用到很多场景,需要得到一些参数值等等. 二.插件地址 URL : https://jmeter-plugins.org/downloads/ ...

  3. 【HAOI2016】放旗子

    终于自己推出来一道题了quq然而时间有点久,考场上并不大丈夫……原题: 给你一个N*N的矩阵,每行有一个障碍,数据保证任意两个障碍不在同一行,任意两个障碍不在同一列,要求你在这个矩阵上放N枚棋子(障碍 ...

  4. 【mybatis源码学习】mybtias知识点

    Mybatis技术内幕系列博客,从原理和源码角度,介绍了其内部实现细节,无论是写的好与不好,我确实是用心写了,由于并不是介绍如何使用Mybatis的文章,所以,一些参数使用细节略掉了,我们的目标是介绍 ...

  5. (惊艳)对象序列化和反序列--Hibernate的查询和新增极其相似

    Hibernate几个关键字持久化,ORM(关系对象映射)(数据库中关系称作是一张表) 应用在项目中,刘一从写的查询代码,每次都挂掉,想要弄出测试数据,自己想着把查询出来的复杂数据弄到文件里自己要是去 ...

  6. oracle重做日志文件硬盘坏掉解决方法

    rman target/ list backup; list backup summary; 删除数据库数据文件夹下的log日志,例如/u01/app/oracle/oradata/ORCL下的所有后 ...

  7. zabbix使用自定义key进行监控

    我的zabbix-server是安装在另一台虚拟机上的,用来监控下图中的这台虚拟机 先修改zabbix的客户端配置文件,增加UserParameter那行,这里我只是用来测试,所以就随便起了一个名为p ...

  8. linux内核编程helloworld(中级)

    传入参数 [root@bogon modules]# cat first.c #include<linux/kernel.h> #include<linux/stat.h> # ...

  9. OutputStream 和 Writer

    OutputStream类(直接操作byte数组) 该类是字节输出流的抽象类,定义了输出流的各种操作方法.如下图是OutputStream的层次结构: ByteArrayOutputStream:字节 ...

  10. tile38 一款开源的geo 数据库

    tile38 是基于golang 编写的geo 数据库,支持地理空间索引.实时地理围栏,同时也支持leader-flower 的部署模型 备注: 下边测试一个简单的地理围栏功能 环境准备 docker ...