python实战项目 — 使用bs4 爬取猫眼电影热榜(存入本地txt、以及存储数据库列表)
案例一:
重点:
1. 使用bs4 爬取
2. 数据写入本地 txt
from bs4 import BeautifulSoup
import requests url = "http://maoyan.com/board"
header = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36'
}
rsq = requests.get(url=url,headers=header).text
soup = BeautifulSoup(rsq, "lxml")
# 所有信息都在 <dd> </dd>标签中,先提取出这个标签
items = soup.select('dd') # 构建本地txt文档
with open("D://maoyan.txt", "w", encoding="utf-8") as f:
for item in items:
# 提取标题
title=item.select('p a[data-act="boarditem-click" ]')[0].get_text()
# 提取主演
star=item.select('p[class = "star"]')[0].get_text().replace("\n", "").strip(" ")
# 提取分数
score=item.select('p[class = "score"]')[0].get_text().strip('\n').strip(' ')
# 提取上映时间
releasetime=item.select('p[class = "releasetime"]')[0].get_text()
# 数据整合
datas=title + " " + releasetime + " " + star + " " + score + "\n"
print(datas)
# 利用for循环把每条datas信息写入本地
f.write(datas)
f.close()
print("Sucessful")
优化后
重点:
1. 链接数据库,创建表
2. 在线爬取写入数据库表
# 下面需要用requests 请求,不要用 “ from urllib import request ”
from bs4 import BeautifulSoup
from urllib import request
import time
import pymysql # 记录开始时间
start_time = time.time() print("尝试链接服务器")
try:
# 链接到服务器
connect = pymysql.connect(host='主机地址', user='用户', passwd='密码', db='数据库名', port=3306)
# 创建游标,对数据进行操作
cursor = connect.cursor()
# 如果存在同名表就删除
cursor.execute('DROP TABLES IF EXISTS maoyan_datas')
# 使用SQL语句创建表
sql1 =""" create table maoyan_datas(
title CHAR(100),
star CHAR(200),
score CHAR(50),
releasetime CHAR(200)
)"""
# 执行上面的sql语句
cursor.execute(sql1)
# 提交执行
connect.commit()
# db.close()
print("链接数据库创建表完成") except Exception as e:
print("链接数据库创建表失败" + str(e)) url="http://maoyan.com/board"
rsq = request.urlopen(url)
html = rsq.read().decode()
# 解析网址
soup = BeautifulSoup(html,"lxml")
# 提取前端结构中 <dd> </dd> 标签部分,因为此部分包含全部信息
items = soup.select('dd')
print("已获取网站数据") sql2 = 'insert into maoyan_datas(title,star,score,releasetime) values(%s,%s,%s,%s)'
i = 0
for item in items:
# 提取标题
title = item.select('p a[data-act="boarditem-click" ]')[0].get_text()
# 提取主演
star = item.select('p[class = "star"]')[0].get_text().replace("\n","").strip(" ")
# 提取分数
score = item.select('p[class = "score"]')[0].get_text().strip('\n').strip(' ')
# 提取上映时间
releasetime = item.select('p[class = "releasetime"]')[0].get_text()
# 数据拼接
all = [title, str(star),str(score),str(releasetime)]
#打印当前获取的电影信息
print(all)
# 把电影信息写入数据库
cursor.execute(sql2,all)
i = i +1
print("已写入 %s 行数据"%i) connect.close()
print("done,消耗了时间: %f s" % (time.time() - start_time))
python实战项目 — 使用bs4 爬取猫眼电影热榜(存入本地txt、以及存储数据库列表)的更多相关文章
- 爬虫系列(1)-----python爬取猫眼电影top100榜
对于Python初学者来说,爬虫技能是应该是最好入门,也是最能够有让自己有成就感的,今天在整理代码时,整理了一下之前自己学习爬虫的一些代码,今天先上一个简单的例子,手把手教你入门Python爬虫,爬取 ...
- 50 行代码教你爬取猫眼电影 TOP100 榜所有信息
对于Python初学者来说,爬虫技能是应该是最好入门,也是最能够有让自己有成就感的,今天,恋习Python的手把手系列,手把手教你入门Python爬虫,爬取猫眼电影TOP100榜信息,将涉及到基础爬虫 ...
- 40行代码爬取猫眼电影TOP100榜所有信息
主要内容: 一.基础爬虫框架的三大模块 二.完整代码解析及效果展示 1️⃣ 基础爬虫框架的三大模块 1.HTML下载器:利用requests模块下载HTML网页. 2.HTML解析器:利用re正则表 ...
- Python爬虫项目--爬取猫眼电影Top100榜
本次抓取猫眼电影Top100榜所用到的知识点: 1. python requests库 2. 正则表达式 3. csv模块 4. 多进程 正文 目标站点分析 通过对目标站点的分析, 来确定网页结构, ...
- Python使用asyncio+aiohttp异步爬取猫眼电影专业版
asyncio是从pytohn3.4开始添加到标准库中的一个强大的异步并发库,可以很好地解决python中高并发的问题,入门学习可以参考官方文档 并发访问能极大的提高爬虫的性能,但是requests访 ...
- python学习(23)requests库爬取猫眼电影排行信息
本文介绍如何结合前面讲解的基本知识,采用requests,正则表达式,cookies结合起来,做一次实战,抓取猫眼电影排名信息. 用requests写一个基本的爬虫 排行信息大致如下图 网址链接为ht ...
- Python爬取猫眼电影100榜并保存到excel表格
首先我们前期要导入的第三方类库有; 通过猫眼电影100榜的源码可以看到很有规律 如: 亦或者是: 根据规律我们可以得到非贪婪的正则表达式 """<div class ...
- Requests+正则表达式爬取猫眼电影(TOP100榜)
猫眼电影网址:www.maoyan.com 前言:网上一些大神已经对猫眼电影进行过爬取,所用的方法也是各有其优,最终目的是把影片排名.图片.名称.主要演员.上映时间与评分提取出来并保存到文件或者数据库 ...
- 使用requests爬取猫眼电影TOP100榜单
Requests是一个很方便的python网络编程库,用官方的话是"非转基因,可以安全食用".里面封装了很多的方法,避免了urllib/urllib2的繁琐. 这一节使用reque ...
随机推荐
- 使用for循环签到嵌套制作直角三角形
注意代码的运行顺序: for(i = 0 ; i<9 ; i++){ for(j = 0 ; j<i-1 ; j++){ document.write("*")//** ...
- canvas做动画
一.绘制图片 ①加载图片 <!DOCTYPE html> <html lang="en"> <head> <meta charset=&q ...
- USACO 奶牛抗议 Generic Cow Protests
USACO 奶牛抗议 Generic Cow Protests Description 约翰家的N头奶牛聚集在一起,排成一列,正在进行一项抗议活动.第i头奶牛的理智度 为Ai,Ai可能是负数.约翰希望 ...
- 18年今日头条笔试第一题题解:球迷(fans)
其实本题是加强版,原数据是100*100的,老师为了尊重我们的智商加成了3000*3000并进行了字符串处理…… 上原题~ 球迷 [问题描述] 一个球场C的球迷看台可容纳M*N个球迷.官方想统计一共有 ...
- Django基础之redirect()
参数可以是: 一个模型: 将调用模型的get_absolute_url()函数 一个视图, 可以带有函数: 可以使用urlresolvers.reverse来反向解析名称 一个绝对的或相对的URL, ...
- Java连接excel实现:通过姓名查找id和通过id查找姓名
注意每个方法结束都要关闭workbook: 还有getIdbyname()方法中字符串flag与name的比较,一定要用equals()方法!!!: 剩下的不多解释,注释都在代码中: import j ...
- Spark2.x(五十七):User capacity has reached its maximum limit(用户容量已达到最大限制)
背景: 目前服务器资源是43个节点,每个节点配置信息如下:24VCores 64G yarn配置情况: yarn.scheduler.minimum-allocation-mb 单个容器可申请的最小 ...
- Android HIDL学习(2) ---- HelloWorld【转】
本文转载自: 写在前面 程序员有个癖好,无论是学习什么新知识,都喜欢以HelloWorld作为一个简单的例子来开头,咱们也不例外. OK,咱这里都是干货,废话就不多说啦,学习HIDL呢咱们还是需要一些 ...
- Python3之logging模块浅析
Python3之logging模块浅析 目录 Python3之logging模块浅析 简单用法 日志与控制台同时输出 一个同时输出到屏幕.文件的完成例子 日志文件截取 日志重复打印问题解决 问题分 ...
- 如何打开uboot的函数debug()的开关,输出更多调试信息?
答: 有两种方法: 一. 方法一 在文件<file>.c的首行加入以下内容: #define DEBUG #undef CONFIG_LOGLEVEL #define CONFIG_LOG ...