Python Spider 抓取猫眼电影TOP100
"""
抓取猫眼电影TOP100
""" import re
import time
import requests from bs4 import BeautifulSoup class SpiderMaoyan(object): def __init__(self):
# 通过分析URL可以发现, 猫眼电影TOP100页面是通过 offset + 10 来分页的
self.url = "http://maoyan.com/board/4?offset={0}"
# 设置一下UA, 否则有可能提示你访问被禁止了
self.headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) "
"Chrome/66.0.3359.139 Safari/537.36"
}
# 定义需要提取的内容字段
self.fields = ("id", "name", "movieUrl", "imgUrl", "star", "releaseTime", "score") def handler(self, offset=0): while offset < 100:
response = requests.get(self.url.format(offset), headers=self.headers)
if response.status_code == 200:
print("INFO -> Current URL: <%s>" % response.url)
# 编码处理一下, 不然有可能中文显示乱码
r_html = response.text.encode(response.encoding).decode("utf-8")
# 构建一个 BeautifulSoup 对象, 用于后续的标签、内容提取
soup = BeautifulSoup(r_html, "html5lib")
# 继续分析网页源代码, 发现每部影片都存在 <dd></dd> 标签中
tags = soup.select("dd")
# 提取内容
for tag in tags:
# id、name、movieUrl
obj = tag.find("p", class_="name").select_one("a")
_id = re.search(r"movieId:(\d+)", obj.get("data-val")).group(1)
_name = obj.string
_movieUrl = "http://maoyan.com" + obj.get("href")
# img
# Tips: 可以将图片地址后面的分辨率去掉, 保存高清大图地址 .split("@")[0]
_imgUrl = tag.find("img", class_="board-img").get("data-src")
# star
# Tips: 中文标点
_star = tag.find("p", class_="star").string.strip().split(":")[-1]
# releaseTime
# Tips: 中文标点
_releaseTime = tag.find("p", class_="releasetime").string.split(":")[-1]
# score
_score = tag.find("p", class_="score").get_text() # 接下来就可以将数据写入存储了
# Tips: 这种 SQL 生成方式有必要验证 key/val 是否成对出现
print(
"INSERT INTO TABLE_NAME (%s) VALUE %s;" % (
", ".join(self.fields), tuple([_id, _name, _movieUrl, _imgUrl, _star, _releaseTime, _score])
)
) # 偏移量自增
offset += 10
# 有必要停顿一下
time.sleep(.9)
else:
print(response.reason)
exit(999) if __name__ == "__main__": spider = SpiderMaoyan()
spider.handler()
Python Spider 抓取猫眼电影TOP100的更多相关文章
- Python爬虫之requests+正则表达式抓取猫眼电影top100以及瓜子二手网二手车信息(四)
requests+正则表达式抓取猫眼电影top100 一.首先我们先分析下网页结构 可以看到第一页的URL和第二页的URL的区别在于offset的值,第一页为0,第二页为10,以此类推. 二.< ...
- python应用-爬取猫眼电影top100
import requests import re import json import time from requests.exceptions import RequestException d ...
- 爬虫_python3_抓取猫眼电影top100
使用urllib,request,和正则表达式,多线程进行秒抓,以及异常处理结果: import urllib,re,json from multiprocessing import Pool#多进程 ...
- Requests+正则表达式抓取猫眼电影TOP100
spider.py # -*- coding:utf-8 -*- import requests import re import json import codecs from requests.e ...
- python requests抓取猫眼电影
1. 网址:http://maoyan.com/board/4? 2. 代码: import json from multiprocessing import Pool import requests ...
- 抓取猫眼电影top100的正则、bs4、pyquery、xpath实现方法
import requests import re import json import time from bs4 import BeautifulSoup from pyquery import ...
- Python爬虫项目--爬取猫眼电影Top100榜
本次抓取猫眼电影Top100榜所用到的知识点: 1. python requests库 2. 正则表达式 3. csv模块 4. 多进程 正文 目标站点分析 通过对目标站点的分析, 来确定网页结构, ...
- python 爬取猫眼电影top100数据
最近有爬虫相关的需求,所以上B站找了个视频(链接在文末)看了一下,做了一个小程序出来,大体上没有修改,只是在最后的存储上,由txt换成了excel. 简要需求:爬虫爬取 猫眼电影TOP100榜单 数据 ...
- 爬虫系列(1)-----python爬取猫眼电影top100榜
对于Python初学者来说,爬虫技能是应该是最好入门,也是最能够有让自己有成就感的,今天在整理代码时,整理了一下之前自己学习爬虫的一些代码,今天先上一个简单的例子,手把手教你入门Python爬虫,爬取 ...
随机推荐
- Hadoop之 MapReducer工作过程
1. 从输入到输出 一个MapReducer作业经过了input,map,combine,reduce,output五个阶段,其中combine阶段并不一定发生,map输出的中间结果被分到reduce ...
- Maven的dependency type属性
官方地址: http://maven.apache.org/ref/3.5.2/maven-model/maven.html (搜索:Some examples are jar, war, ejb-c ...
- OpenWrt的web服务器
参考: http://www.szchehang.com/news/10602.html 我们登录的路由器主界面就是通过这个软件指定了80端口来访问的.我们要添加自己额外的网站服务,那只需要重新定义一 ...
- R(8): tidyr
tidy(整洁),Tidyr包是由Hadely Wickham创建,这个包提高了整理原始数据的效率,tidyr包的4个常用的函数及其用途如下: gather()——它把多列放在一起,然后转化为key: ...
- android datepicker monthOfYear getMonth(): 获取当前月(注意:返回数值为0..11,需要自己+1来显示).....
关键点: 1. getMonth(): 获取当前月(注意:返回数值为0..11,需要自己+1来显示) 2. 初始年(译者注:注意使用new Date()初始化年时,需要+1900,如下:dat ...
- 解决nginx启动时域名解析失败而导致服务启动失败的问题
问题: nginx启动或者reload的时候,会对proxy_pass后面的域名进行DNS解析,如果解析失败,启动就会失败或者reload失败. 我们是to B的产品,客户的环境可能是不通公网的,因此 ...
- 【转载】CSS + DIV 实现整理布局
HTML CSS + DIV实现整体布局 1.技术目标: 开发符合W3C标准的Web页面 理解盒子模型 实现DIV+CSS整体布局 2.什么是W3C标准? W3C:World Wide Web Con ...
- 去掉chrome浏览器中input或textarea在得到焦点时出现黄色边框的方法
此文来源网络,我转载的原文里的图显示“该图片仅限百度用户内部交流使用”,我估计这篇文章是从百度空间抄过来的,该作者没保留原文地址.所以我在这里也没保留抄袭文章的地址. chrome浏览器不管对于开发者 ...
- centos7 防火墙一些相关设置 开机添加静态路由 特殊的方法
参考文献: https://access.redhat.com/documentation/zh-cn/red_hat_enterprise_linux/7/html/security_guide/s ...
- idea如何禁用SVN
打开Intellij的setting(ctrl+alt+s),选择plugins,在右边搜索框输入“SVN”,搜索.选择“SVN disconnect”,安装此插件. 插件使用 点击菜单栏中的VCS ...