python实战项目 — 使用bs4 爬取猫眼电影热榜(存入本地txt、以及存储数据库列表)
案例一:
重点:
1. 使用bs4 爬取
2. 数据写入本地 txt
from bs4 import BeautifulSoup
import requests url = "http://maoyan.com/board"
header = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36'
}
rsq = requests.get(url=url,headers=header).text
soup = BeautifulSoup(rsq, "lxml")
# 所有信息都在 <dd> </dd>标签中,先提取出这个标签
items = soup.select('dd') # 构建本地txt文档
with open("D://maoyan.txt", "w", encoding="utf-8") as f:
for item in items:
# 提取标题
title=item.select('p a[data-act="boarditem-click" ]')[0].get_text()
# 提取主演
star=item.select('p[class = "star"]')[0].get_text().replace("\n", "").strip(" ")
# 提取分数
score=item.select('p[class = "score"]')[0].get_text().strip('\n').strip(' ')
# 提取上映时间
releasetime=item.select('p[class = "releasetime"]')[0].get_text()
# 数据整合
datas=title + " " + releasetime + " " + star + " " + score + "\n"
print(datas)
# 利用for循环把每条datas信息写入本地
f.write(datas)
f.close()
print("Sucessful")
优化后
重点:
1. 链接数据库,创建表
2. 在线爬取写入数据库表
# 下面需要用requests 请求,不要用 “ from urllib import request ”
from bs4 import BeautifulSoup
from urllib import request
import time
import pymysql # 记录开始时间
start_time = time.time() print("尝试链接服务器")
try:
# 链接到服务器
connect = pymysql.connect(host='主机地址', user='用户', passwd='密码', db='数据库名', port=3306)
# 创建游标,对数据进行操作
cursor = connect.cursor()
# 如果存在同名表就删除
cursor.execute('DROP TABLES IF EXISTS maoyan_datas')
# 使用SQL语句创建表
sql1 =""" create table maoyan_datas(
title CHAR(100),
star CHAR(200),
score CHAR(50),
releasetime CHAR(200)
)"""
# 执行上面的sql语句
cursor.execute(sql1)
# 提交执行
connect.commit()
# db.close()
print("链接数据库创建表完成") except Exception as e:
print("链接数据库创建表失败" + str(e)) url="http://maoyan.com/board"
rsq = request.urlopen(url)
html = rsq.read().decode()
# 解析网址
soup = BeautifulSoup(html,"lxml")
# 提取前端结构中 <dd> </dd> 标签部分,因为此部分包含全部信息
items = soup.select('dd')
print("已获取网站数据") sql2 = 'insert into maoyan_datas(title,star,score,releasetime) values(%s,%s,%s,%s)'
i = 0
for item in items:
# 提取标题
title = item.select('p a[data-act="boarditem-click" ]')[0].get_text()
# 提取主演
star = item.select('p[class = "star"]')[0].get_text().replace("\n","").strip(" ")
# 提取分数
score = item.select('p[class = "score"]')[0].get_text().strip('\n').strip(' ')
# 提取上映时间
releasetime = item.select('p[class = "releasetime"]')[0].get_text()
# 数据拼接
all = [title, str(star),str(score),str(releasetime)]
#打印当前获取的电影信息
print(all)
# 把电影信息写入数据库
cursor.execute(sql2,all)
i = i +1
print("已写入 %s 行数据"%i) connect.close()
print("done,消耗了时间: %f s" % (time.time() - start_time))
python实战项目 — 使用bs4 爬取猫眼电影热榜(存入本地txt、以及存储数据库列表)的更多相关文章
- 爬虫系列(1)-----python爬取猫眼电影top100榜
对于Python初学者来说,爬虫技能是应该是最好入门,也是最能够有让自己有成就感的,今天在整理代码时,整理了一下之前自己学习爬虫的一些代码,今天先上一个简单的例子,手把手教你入门Python爬虫,爬取 ...
- 50 行代码教你爬取猫眼电影 TOP100 榜所有信息
对于Python初学者来说,爬虫技能是应该是最好入门,也是最能够有让自己有成就感的,今天,恋习Python的手把手系列,手把手教你入门Python爬虫,爬取猫眼电影TOP100榜信息,将涉及到基础爬虫 ...
- 40行代码爬取猫眼电影TOP100榜所有信息
主要内容: 一.基础爬虫框架的三大模块 二.完整代码解析及效果展示 1️⃣ 基础爬虫框架的三大模块 1.HTML下载器:利用requests模块下载HTML网页. 2.HTML解析器:利用re正则表 ...
- Python爬虫项目--爬取猫眼电影Top100榜
本次抓取猫眼电影Top100榜所用到的知识点: 1. python requests库 2. 正则表达式 3. csv模块 4. 多进程 正文 目标站点分析 通过对目标站点的分析, 来确定网页结构, ...
- Python使用asyncio+aiohttp异步爬取猫眼电影专业版
asyncio是从pytohn3.4开始添加到标准库中的一个强大的异步并发库,可以很好地解决python中高并发的问题,入门学习可以参考官方文档 并发访问能极大的提高爬虫的性能,但是requests访 ...
- python学习(23)requests库爬取猫眼电影排行信息
本文介绍如何结合前面讲解的基本知识,采用requests,正则表达式,cookies结合起来,做一次实战,抓取猫眼电影排名信息. 用requests写一个基本的爬虫 排行信息大致如下图 网址链接为ht ...
- Python爬取猫眼电影100榜并保存到excel表格
首先我们前期要导入的第三方类库有; 通过猫眼电影100榜的源码可以看到很有规律 如: 亦或者是: 根据规律我们可以得到非贪婪的正则表达式 """<div class ...
- Requests+正则表达式爬取猫眼电影(TOP100榜)
猫眼电影网址:www.maoyan.com 前言:网上一些大神已经对猫眼电影进行过爬取,所用的方法也是各有其优,最终目的是把影片排名.图片.名称.主要演员.上映时间与评分提取出来并保存到文件或者数据库 ...
- 使用requests爬取猫眼电影TOP100榜单
Requests是一个很方便的python网络编程库,用官方的话是"非转基因,可以安全食用".里面封装了很多的方法,避免了urllib/urllib2的繁琐. 这一节使用reque ...
随机推荐
- linux学习8 运维基本功-Linux获取命令使用帮助详解
一.Linux基础知识 1.人机交互界面: a.GUI b.CLI:[login@hostname workdir]# COMMAND 2.命令知识 通用格式:# COMMAND OPTIONS A ...
- BZOJ 4212: 神牛的养成计划 可持久化trie+trie
思路倒是不难,但是这题卡常啊 ~ code: #include <bits/stdc++.h> #define N 2000004 #define M 1000005 #define SI ...
- 关于System.AccessViolationException异常
什么是AccessViolationException 试图读写受保护内存时引发的异常. 继承 Object Exception SystemException AccessViolationExce ...
- mybatis的判定时间字段问题 java.lang.IllegalArgumentException: invalid comparison: cn.hutool.core.date.DateTime and java.lang.String
今天听组员说: mybatis在3.30版本及以上判定时间时 <if test="date_time != null and date_time != '' "> da ...
- [RN] React Native 实现 FlatList上拉加载
FlatList可以利用官方组件 RefreshControl实现下拉刷新功能,但官方没有提供相应的上拉加载的组件,因此在RN中实现上拉加载比下拉刷新要复杂一点. 不过我们仍可以通过FlatList ...
- [Gradle] 发布 library 到本地 maven 仓库
Java Library // publish_local_java.gradle apply plugin: 'maven-publish' publishing { publications { ...
- Noip2019暑期训练1
题目名称 时空定位 棋子移动 高精度乘法 数独游戏 存盘文件名 location piece mul sudoku 输入文件名 location.in piece.in mul.in sudoku.i ...
- chown与chmod的区别
chown 修改文件和文件夹的用户和用户组属性 1.要修改文件hh.c的所有者.修改为sakia的这个用户所有 chown sakia hh.c 这样就把hh.c的用户访问权限应用到sakia作为所有 ...
- 15、基于consul+consul-template+registrator+nginx实现自动服务发现
一.架构图 二.组件介绍 1.Registrator Registrator:一个由Go语言编写的,针对docker使用的,通过检查本机容器进程在线或者停止运行状态,去注册服务的工具.所以我们要做的实 ...
- HTTP与RPC(Thrift)
什么是RPC 从网络协议来说,Http协议与Rpc同属于应用层, 他们的底层都是tcp协议. RPC(即Remote Procedure Call,远程过程调用)和HTTP(HyperText Tra ...