案例一:

重点:

1. 使用bs4 爬取

2. 数据写入本地 txt

from bs4 import BeautifulSoup
import requests url = "http://maoyan.com/board"
header = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36'
}
rsq = requests.get(url=url,headers=header).text
soup = BeautifulSoup(rsq, "lxml")
# 所有信息都在 <dd> </dd>标签中,先提取出这个标签
items = soup.select('dd') # 构建本地txt文档
with open("D://maoyan.txt", "w", encoding="utf-8") as f:
for item in items:
# 提取标题
title=item.select('p a[data-act="boarditem-click" ]')[0].get_text()
# 提取主演
star=item.select('p[class = "star"]')[0].get_text().replace("\n", "").strip(" ")
# 提取分数
score=item.select('p[class = "score"]')[0].get_text().strip('\n').strip(' ')
# 提取上映时间
releasetime=item.select('p[class = "releasetime"]')[0].get_text()
# 数据整合
datas=title + " " + releasetime + " " + star + " " + score + "\n"
print(datas)
# 利用for循环把每条datas信息写入本地
f.write(datas)
f.close()
print("Sucessful")

  

优化后

重点:

1. 链接数据库,创建表

2. 在线爬取写入数据库表

# 下面需要用requests 请求,不要用 “ from urllib import request ”

from bs4 import BeautifulSoup
from urllib import request
import time
import pymysql # 记录开始时间
start_time = time.time() print("尝试链接服务器")
try:
# 链接到服务器
connect = pymysql.connect(host='主机地址', user='用户', passwd='密码', db='数据库名', port=3306)
# 创建游标,对数据进行操作
cursor = connect.cursor()
# 如果存在同名表就删除
cursor.execute('DROP TABLES IF EXISTS maoyan_datas')
# 使用SQL语句创建表
sql1 =""" create table maoyan_datas(
title CHAR(100),
star CHAR(200),
score CHAR(50),
releasetime CHAR(200)
)"""
# 执行上面的sql语句
cursor.execute(sql1)
# 提交执行
connect.commit()
# db.close()
print("链接数据库创建表完成") except Exception as e:
print("链接数据库创建表失败" + str(e)) url="http://maoyan.com/board"
rsq = request.urlopen(url)
html = rsq.read().decode()
# 解析网址
soup = BeautifulSoup(html,"lxml")
# 提取前端结构中 <dd> </dd> 标签部分,因为此部分包含全部信息
items = soup.select('dd')
print("已获取网站数据") sql2 = 'insert into maoyan_datas(title,star,score,releasetime) values(%s,%s,%s,%s)'
i = 0
for item in items:
# 提取标题
title = item.select('p a[data-act="boarditem-click" ]')[0].get_text()
# 提取主演
star = item.select('p[class = "star"]')[0].get_text().replace("\n","").strip(" ")
# 提取分数
score = item.select('p[class = "score"]')[0].get_text().strip('\n').strip(' ')
# 提取上映时间
releasetime = item.select('p[class = "releasetime"]')[0].get_text()
# 数据拼接
all = [title, str(star),str(score),str(releasetime)]
#打印当前获取的电影信息
print(all)
# 把电影信息写入数据库
cursor.execute(sql2,all)
i = i +1
print("已写入 %s 行数据"%i) connect.close()
print("done,消耗了时间: %f s" % (time.time() - start_time))

  

python实战项目 — 使用bs4 爬取猫眼电影热榜(存入本地txt、以及存储数据库列表)的更多相关文章

  1. 爬虫系列(1)-----python爬取猫眼电影top100榜

    对于Python初学者来说,爬虫技能是应该是最好入门,也是最能够有让自己有成就感的,今天在整理代码时,整理了一下之前自己学习爬虫的一些代码,今天先上一个简单的例子,手把手教你入门Python爬虫,爬取 ...

  2. 50 行代码教你爬取猫眼电影 TOP100 榜所有信息

    对于Python初学者来说,爬虫技能是应该是最好入门,也是最能够有让自己有成就感的,今天,恋习Python的手把手系列,手把手教你入门Python爬虫,爬取猫眼电影TOP100榜信息,将涉及到基础爬虫 ...

  3. 40行代码爬取猫眼电影TOP100榜所有信息

    主要内容: 一.基础爬虫框架的三大模块 二.完整代码解析及效果展示 1️⃣  基础爬虫框架的三大模块 1.HTML下载器:利用requests模块下载HTML网页. 2.HTML解析器:利用re正则表 ...

  4. Python爬虫项目--爬取猫眼电影Top100榜

    本次抓取猫眼电影Top100榜所用到的知识点: 1. python requests库 2. 正则表达式 3. csv模块 4. 多进程 正文 目标站点分析 通过对目标站点的分析, 来确定网页结构,  ...

  5. Python使用asyncio+aiohttp异步爬取猫眼电影专业版

    asyncio是从pytohn3.4开始添加到标准库中的一个强大的异步并发库,可以很好地解决python中高并发的问题,入门学习可以参考官方文档 并发访问能极大的提高爬虫的性能,但是requests访 ...

  6. python学习(23)requests库爬取猫眼电影排行信息

    本文介绍如何结合前面讲解的基本知识,采用requests,正则表达式,cookies结合起来,做一次实战,抓取猫眼电影排名信息. 用requests写一个基本的爬虫 排行信息大致如下图 网址链接为ht ...

  7. Python爬取猫眼电影100榜并保存到excel表格

    首先我们前期要导入的第三方类库有; 通过猫眼电影100榜的源码可以看到很有规律 如: 亦或者是: 根据规律我们可以得到非贪婪的正则表达式 """<div class ...

  8. Requests+正则表达式爬取猫眼电影(TOP100榜)

    猫眼电影网址:www.maoyan.com 前言:网上一些大神已经对猫眼电影进行过爬取,所用的方法也是各有其优,最终目的是把影片排名.图片.名称.主要演员.上映时间与评分提取出来并保存到文件或者数据库 ...

  9. 使用requests爬取猫眼电影TOP100榜单

    Requests是一个很方便的python网络编程库,用官方的话是"非转基因,可以安全食用".里面封装了很多的方法,避免了urllib/urllib2的繁琐. 这一节使用reque ...

随机推荐

  1. ThinkCMF框架任意内容包含

    更多内容,欢迎关注微信公众号:信Yang安全,期待与您相遇. ThinkCMF是一款基于PHP+MYSQL开发的中文内容管理框架,底层采用ThinkPHP3.2.3构建.ThinkCMF提出灵活的应用 ...

  2. CentOS yum repo

    CentOS yum repo   阿里云的 一个是Centos-6的 一个是Centos-7  # CentOS 5 wget -O /etc/yum.repos.d/CentOS-Base.rep ...

  3. OKR的两个基本原则

    <启示录>作者,前易贝高级副总裁,硅谷产品集团创始人马蒂·卡根在<OKR工作法>的序言中提到了目标管理法的两个原则: 不要告诉下属具体怎么做,要告诉他们你要什么,他们就会给你满 ...

  4. Chocolatey 方便的windows 包管理工具

    windows 在包管理上一般大家都是网上下载二进制文件或者就是通过软件管家进行安装,这些对于开发人员可能就有点不是 很专业了, Chocolatey 是一个不错的windows 软件包管理工具 安装 ...

  5. IDEA中设置自动build-改动代码,不用重启工程,刷新页面即可

    1.CTRL + SHIFT + A --> 查找Registry --> 找到并勾选compiler.automake.allow.when.app.running   2. FILE ...

  6. mybatis or的用法

    @Test public void test3(){ CaseSmallListExample caseSmallListExample = new CaseSmallListExample(); c ...

  7. FusionInsight,一个融合的大数据平台

    随着物联网技术和应用的普及,以运营商.互联网以及实体经济行业为代表的企业产生了越来越多的数据,大数据的发展越来越蓬勃. 从2007年开始,大数据应用成为很多企业的需求,2012年兴起并产生了大数据平台 ...

  8. 运维笔记--postgresql占用CPU问题定位

    运维笔记--postgresql占用CPU问题定位 场景描述: 业务系统访问变慢,登陆服务器查看系统负载并不高,然后查看占用CPU较高的进程,发现是连接数据库的几个进程占用系统资源较多. 处理方式: ...

  9. uni-app打包程序 Hbuilder X 用自有证书 苹果证书打包 ios App、用DCloud公用证书打包Android APP

    Android用HBuilder的DCloud公用证书即可 HBuilderX  uni-app打包成apk安装到手机首先要登录,没有帐号可以注册,接着点击运行—原生App-云打包,配置完后点击打包, ...

  10. SDN实验---使用git安装Mininet

    0:补充Ubuntu截屏 截全屏 printscreen 截取当前窗口 alt + printscreen 截取任意矩形 shift + printscreen 截取全屏到剪切板 ctrl + pri ...