爬取豆瓣TOP250

from requests_html import HTMLSession

#新建一个html文件,将相应的代码放入,运行查看结果,如果页面全部渲染则直接根据页面信息获得数据;
#如果指定部分没有代码,则是通过ajax提交渲染的结果,需要通过控制台找到指定的后台接口
#session=HTMLSession()
# r=session.get('https://movie.douban.com/top250')
# print(r.text) class douban250():
def __init__(self):
self.session=HTMLSession()
#请求头,根据请求网页决定是否需要
self.headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36'
} #请求路径,一共十页每页25条数据
def get_url(self):
for i in range(10):
#这里一定要注意要将i*25放在括号内,否则数据会出错
yield 'https://movie.douban.com/top250?start=%s&filter=' % (i*25) def get_data(self,url):
r=self.session.get(url=url,headers=self.headers)
elements_list=r.html.find('li .item>.pic')
for element in elements_list:
#电影详情链接
links_url=element.find('a',first=True).attrs.get('href')
#电影排名
range=element.find('em',first=True).text
#电影名
mov_name=element.find('a>img',first=True).attrs.get('alt')
#电影封面
img_url=element.find('a>img',first=True).attrs.get('src')
print(range,mov_name)
print(links_url)
yield img_url,mov_name def save_img(self,img_url,img_name):
r=self.session.get(img_url)
img_path=os.path.join('豆瓣250图片',img_name+'.jpg')
with open(img_path,'wb') as f:
f.write(r.content)
print('%s下载完毕'%img_name) #运行函数,获得路径
def run(self):
for url in self.get_url():
for img_url,mov_name in self.get_data(url):
self.save_img(img_url,mov_name) if __name__ == '__main__':
a=douban250()
a.run()

爬取校花网图片

from requests_html import HTMLSession
import os class spider():
def __init__(self):
self.session = HTMLSession()
self.headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36'
} def get_index_url(self):
for i in range(1,4):
#因为第一个页面是没有页面索引的
if i == 1:
yield 'http://www.xiaohuar.com/meinv/index.html'
else:
yield 'http://www.xiaohuar.com/meinv/index_%s.html'%i def get_img_name(self,index_url):
r = self.session.get(url=index_url,headers=self.headers)
elements_list = r.html.find('#images .items')
for element in elements_list:
img_url:str = element.find('img',first=True).attrs.get('src')
#因为爬取得数据有些是绝对路径有些是相对路径,所有需要拼接
if not img_url.startswith('http'):
img_url = 'http://www.xiaohuar.com' + img_url
#文件名不能出现左斜杠或者右斜杠,空格没问题
img_name = element.find('.p_title>a',first=True).text.replace('\\','').replace('/','') + '.jpg'
yield img_url,img_name def save_img(self,img_url,img_name):
r = self.session.get(url=img_url)
#新建一个存放图片的文件夹名叫‘校花图片’
img_path= os.path.join('校花图片',img_name)
with open(img_path,'wb') as f:
f.write(r.content)
print('%s下载完毕'%img_name) def run(self):
for index_url in self.get_index_url():
for img_url,img_name in self.get_img_name(index_url):
self.save_img(img_url,img_name) if __name__ == '__main__':
xiaohua = spider()
xiaohua.run()

爬取豆瓣电影分类页面

import requests_html

#新建一个html文件,将相应的代码放入,运行查看结果,如果页面全部渲染则直接根据页面信息获得数据;
#如果指定部分没有代码,则是通过ajax提交渲染的结果,需要通过控制台找到指定的后台接口
# session=requests_html.HTMLSession()
# url='https://movie.douban.com/tag/#/?sort=U&range=0,10&tags=2018'
# r=session.get(url)
# print(r.text) class spider():
def __init__(self):
#通过控制器NETWORK的XHR也就是json格式的数据找到的接口路径,注意结尾加问号
self.api='https://movie.douban.com/j/new_search_subjects?'
self.session=requests_html.HTMLSession() def get_params(self):
year_range=input('请输入年份')
sort=input('请输入排序规则(S按评分)')
countries=input('请输入电影的制作国家')
tags=input('请输入标签(如经典)')
print('tags:',tags) self.params={
'year_range':year_range,
'sort':sort,
'start':0,
# 'country':str(countryies.encode('utf8')).strip('b\'').replace('\\x','%').upper()
'countries':countries,
'tags':tags
} def get_data(self):
for i in range(1):
#点击加载更多按键,每次加载20条数据
self.params['start']=i*20
r=self.session.get(url=self.api,params=self.params)
print(r.json()) def run(self):
self.get_params()
self.get_data() if __name__ == '__main__':
douban=spider()
douban.run()

requests_html爬虫小练习的更多相关文章

  1. 基于webmagic的爬虫小应用--爬取知乎用户信息

    听到“爬虫”,是不是第一时间想到Python/php ? 多少想玩爬虫的Java学习者就因为语言不通而止步.Java是真的不能做爬虫吗? 当然不是. 只不过python的3行代码能解决的问题,而Jav ...

  2. 一个python爬虫小程序

    起因 深夜忽然想下载一点电子书来扩充一下kindle,就想起来python学得太浅,什么“装饰器”啊.“多线程”啊都没有学到. 想到廖雪峰大神的python教程很经典.很著名.就想找找有木有pdf版的 ...

  3. nodeJs爬虫小程序练习

    //爬虫小程序 var express = require('express'); //superagent是一个http的库,可以发起get和post请求 var superagent = requ ...

  4. 适合新手的Python爬虫小程序

    介绍:此程序是使用python做的一个爬虫小程序  爬取了python百度百科中的部分内容,因为这个demo是根据网站中的静态结构爬取的,所以如果百度百科词条的html结构发生变化 需要修改部分内容. ...

  5. java网络爬虫爬虫小栗子

    简要介绍: 使用java开发的爬虫小栗子,存储到由zookeeper协调的hbase中 主要过程是模拟Post请求和get请求,html解析,hbase存储 源码:https://github.com ...

  6. 福利贴——爬取美女图片的Java爬虫小程序代码

    自己做的一个Java爬虫小程序 废话不多说.先上图. 目录命名是用标签缩写,假设大家看得不顺眼能够等完成下载后手动改一下,比方像有强迫症的我一样... 这是挂了一个晚上下载的总大小,只是还有非常多由于 ...

  7. Python_爬虫小实例

    爬虫小实例 一.问题描述与分析 Q:查询某一只股票,在百度搜索页面的结果的个数以及搜索结果的变化. 分析: 搜索结果个数如下图: 搜索结果的变化:通过观察可以看到,每个一段时间搜索结果的个数是有所变化 ...

  8. Java豆瓣电影爬虫——小爬虫成长记(附源码)

    以前也用过爬虫,比如使用nutch爬取指定种子,基于爬到的数据做搜索,还大致看过一些源码.当然,nutch对于爬虫考虑的是十分全面和细致的.每当看到屏幕上唰唰过去的爬取到的网页信息以及处理信息的时候, ...

  9. python网页爬虫小项目开发

    这是我最近接的一个小项目,花了是整整四天多时间. 任务是将http://www.examcoo.com/index/detail/mid/7网站下所有的试卷里的试题全部提取出来,首先按照题型进行分类, ...

随机推荐

  1. MyBatis简介与配置

    1.1MyBatis简介 MyBatis 是一个可以自定义SQL.存储过程和高级映射的持久层框架.MyBatis 摒除了大部分的JDBC代码.手工设置参数和结果集重获.MyBatis 只使用简单的XM ...

  2. Cent OS 7下安装 mongodb

    1.下载MongoDB 安装包 wget https://fastdl.mongodb.org/linux/mongodb-linux-x86_64-3.6.8.tgz 2.解压并安装 .tgz 3. ...

  3. leetcode上一些常见的链表问题

    92-按规定区间反转链表 思路:可以考虑成一种把前后数字的结点断开重新组合的问题 /** * Definition for singly-linked list. * struct ListNode ...

  4. 65、salesforce的数据分页

    <apex:page controller="PagingController"> <apex:form > <apex:pageBlock titl ...

  5. vue绑值(表格)

    vue绑值(表格) <!DOCTYPE html> <html lang="zh-CN"> <head> <title>JSON取数 ...

  6. 运维 05 Shell基本命令

    Shell基本命令   前言 前面咱们已经成功安装了Linux系统--centos7,那么现在跟着超哥奔向Linux的大门. Linux命令行的组成结构 [root@oldboy_python ~]# ...

  7. Web RTC + audio API 实现录音,并压缩

    <button onclick="record()">开始录音</button> <button onclick="stopRecord() ...

  8. web跨域

    之前对于跨域相关的知识一致都很零碎,正好现在的代码中用到了跨域相关的,现在来对这些知识做一个汇总整理,方便自己查看,说不定也可能对你有所帮助. 本篇主要内容如下: 浏览器同源策略 http 请求跨域 ...

  9. python_ 模块 json pickle shelve

    一,什么是模块? 常见的场景:一个模块就是一个包含了python定义和声明的文件,文件名就是模块名字加上.py的后缀. 但其实import加载的模块分为四个通用类别: 1 使用python编写的代码( ...

  10. 将 XML 架构(XSD)附加到Word文档

    附加到文档中的 XML 架构是为您的组织进行自定义而设计的.XML 架构通常由 IT 专业人员创建,他们的职责就是在 Word 中为您的组织构建专用的模板或解决方案. 可用于附加到文档的架构在架构库中 ...