Python爬虫爬取京东某商品评论信息存入mysql数据库
1 """
2 https://club.jd.com/comment/productPageComments.action?callback=fetchJSON_comment98&productId=100006852812&score=0&sortType=5&page=0&pageSize=10&isShadowSku=0&fold=1
3 page=0&pageSize=10
4 """
5 import json
6 from datetime import time
7 from random import randint
8
9 import pymysql
10 import requests
11 #连接数据库 获取游标
12 def get_conn():
13 """
14 :return: 连接,游标
15 """
16 # 创建连接
17 conn = pymysql.connect(host="127.0.0.1",
18 user="root",
19 password="000429",
20 db="info",
21 charset="utf8")
22 # 创建游标
23 cursor = conn.cursor() # 执行完毕返回的结果集默认以元组显示
24 if ((conn != None) & (cursor != None)):
25 print("数据库连接成功!游标创建成功!")
26 else:
27 print("数据库连接失败!")
28 return conn, cursor
29 #关闭数据库连接和游标
30 def close_conn(conn, cursor):
31 if cursor:
32 cursor.close()
33 if conn:
34 conn.close()
35 return 1
36
37 def jd_spider():
38 headers = {
39 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.4844.51 Safari/537.36'
40 }
41 res_data = [] #最终返回的数据
42 temp_data=[] #中间数据
43 for page_num in range(6,50):
44 url=f'https://club.jd.com/comment/productPageComments.action?callback=fetchJSON_comment98&productId=100006852812&score=0&sortType=5&page={page_num}&pageSize=1&isShadowSku=0&fold=1'
45 # 发起请求
46 response = requests.get(url, headers=headers)
47 response.encoding='GBK'
48 # 获取响应
49 res_text = response.text
50 # print(res_text)
51 new_res_text=res_text[20:-2]
52 # print(new_res_text)
53 res_json=json.loads(new_res_text)
54 # print(type(res_json)) #<class 'dict'>
55 comments=res_json['comments']
56 # print(comments[0])
57 comments_dict=comments[0]
58 # print(comments_dict.keys())
59 temp_data.append(comments_dict['id'])
60 temp_data.append(comments_dict['content'])
61 temp_data.append(comments_dict['creationTime'])
62 temp_data.append(comments_dict['referenceTime'])
63 temp_data.append(comments_dict['days'])
64 flag_isMobile=randint(0,1)
65 flag_userLevel=randint(0,1)
66 temp_data.append(flag_isMobile)
67 temp_data.append(flag_userLevel)
68 res_data.append(temp_data)
69 print(str(page_num),temp_data)
70 insert_jd(res_data)
71 temp_data=[]
72 res_data=[]
73 return
74
75 #插入
76 def insert_jd(data):
77 """
78 插入imdb数据
79 :return:
80 """
81 cursor = None
82 conn = None
83 try:
84 # list_=[]
85 # list = jd_spider()
86 # if(type(list)!=type(list_)):
87 # return -1
88 conn, cursor = get_conn()
89 sql = "insert into jd_comments(id,content,creationTime,referenceTime,days,flag_isMobile,flag_userLevel) values(%s,%s,%s,%s,%s,%s,%s)"
90 for item in data:
91 try:
92 print(item)
93 cursor.execute(sql, [item[0], item[1], item[2], item[3], item[4], item[5], item[6]])
94 except pymysql.err.IntegrityError:
95 print("出现错误!")
96 conn.commit() # 提交事务 update delete insert操作
97 finally:
98 close_conn(conn, cursor)
99 return
100
101 if __name__ == '__main__':
102 jd_spider()


id, 评论id
content, 评论
creationTime, 评论时间
referenceTime, 确认收货时间
days, 评论时间距【收货/下单】时间多长时间
isMobile(0 1) , 是否移动端(0 PC端,1 移动端)
userLevel(0 1) 用户等级(1会员,0非会员)
Python爬虫爬取京东某商品评论信息存入mysql数据库的更多相关文章
- python爬虫爬取京东、淘宝、苏宁上华为P20购买评论
爬虫爬取京东.淘宝.苏宁上华为P20购买评论 1.使用软件 Anaconda3 2.代码截图 三个网站代码大同小异,因此只展示一个 3.结果(部分) 京东 淘宝 苏宁 4.分析 这三个网站上的评论数据 ...
- Python爬虫-爬取京东商品信息-按给定关键词
目的:按给定关键词爬取京东商品信息,并保存至mongodb. 字段:title.url.store.store_url.item_id.price.comments_count.comments 工具 ...
- JS+Selenium+excel追加写入,使用python成功爬取京东任何商品~
之前一直是requests库做爬虫,这次尝试下使用selenium做爬虫,效率不高,但是却没有限制,文章是分别结合大牛的selenium爬虫以及excel追加写入操作而成,还有待优化,打算爬取更多信息 ...
- Python爬虫抓取东方财富网股票数据并实现MySQL数据库存储
Python爬虫可以说是好玩又好用了.现想利用Python爬取网页股票数据保存到本地csv数据文件中,同时想把股票数据保存到MySQL数据库中.需求有了,剩下的就是实现了. 在开始之前,保证已经安装好 ...
- 毕设二:python 爬取京东的商品评论
# -*- coding: utf-8 -*- # @author: Tele # @Time : 2019/04/14 下午 3:48 # 多线程版 import time import reque ...
- 利用Python爬虫爬取淘宝商品做数据挖掘分析实战篇,超详细教程
项目内容 本案例选择>> 商品类目:沙发: 数量:共100页 4400个商品: 筛选条件:天猫.销量从高到低.价格500元以上. 项目目的 1. 对商品标题进行文本分析 词云可视化 2. ...
- Python 爬虫-爬取京东手机页面的图片
具体代码如下: __author__ = 'Fred Zhao' import requests from bs4 import BeautifulSoup import os from urllib ...
- <爬虫>利用BeautifulSoup爬取百度百科虚拟人物资料存入Mysql数据库
网页情况: 代码: import requests from requests.exceptions import RequestException from bs4 import Beautiful ...
- python 爬虫爬取历年双色球开奖信息
目前写的这些爬虫都是些静态网页,对于一些高级网页(像经过JS渲染过的页面),目前技术并不能解决,自己也是在慢慢学习过程中,如有错误,欢迎指正: 对面前端知识本人并不懂,过程中如果涉及到前端知识,也是百 ...
- python制作爬虫爬取京东商品评论教程
作者:蓝鲸 类型:转载 本文是继前2篇Python爬虫系列文章的后续篇,给大家介绍的是如何使用Python爬取京东商品评论信息的方法,并根据数据绘制成各种统计图表,非常的细致,有需要的小伙伴可以参考下 ...
随机推荐
- oracle中使用自定义函数解析指定分隔符的字符串
1.创建字符串表类型 create type tab_varchar is table of varchar2(2000); 2.创建管道函数 create or replace function g ...
- Java集合框架学习(二) HashSet详解
HashSet介绍 这个类实现了Set接口,背后是一个hash table(实际上是个HashMap 实例) .它不保证元素的迭代顺序.尤其是,随着时间推 移它不保证某一元素的位置不变.这个类是非线程 ...
- Jenkins流水线使用@Grab 导入Maven库
有个需求需要在pipeline中调用Java的SDK去执行业务 使用 @Grab 注解可以在Maven中导入Java 库, @Grab('org.apache.commons:commons-math ...
- SQL Server 连接数据库报错 (ObjectExplorer)
报错信息 无法访问数据库 ReportServer. (ObjectExplorer) 具体错误信息: 程序位置: 在 Microsoft.SqlServer.Management.UI.VSInte ...
- 【Azure 应用服务】部署Azure Web App时,是否可以替换hostingstart.html文件呢?
问题描述 当成功创建一个Web App时,通过高级工具(Kudu)可以查看 Web App的根目录(wwwroot)中有一个默认的文件(hostingstart.html).它就是应用服务的默认页面. ...
- 通过debug搞清楚.vue文件怎么变成.js文件
前言 我们每天写的vue代码都是写在vue文件中,但是浏览器却只认识html.css.js等文件类型.所以这个时候就需要一个工具将vue文件转换为浏览器能够认识的js文件,想必你第一时间就想到了web ...
- [学习笔记]在Linux中使用源码编译的方式安装Nginx
准备工作 准备nginx源码包: http://nginx.org/en/download.html 准备相关的依赖包以及环境: gzip 模块需要 zlib 库 http://www.zlib. ...
- git合并代码操作-2022新项目
自己做开发工作已经好几年,以前由于都是开发一些小项目,基本上也没拉什么分支进行开发,也没有涉及到合并代码的操作,因此自己对于如何合并代码还真没有实际地操作过.今天负责人突然交给我一个任务,让我去合并代 ...
- FreeRTOS教程3 中断管理
1.准备材料 正点原子stm32f407探索者开发板V2.4 STM32CubeMX软件(Version 6.10.0) Keil µVision5 IDE(MDK-Arm) 野火DAP仿真器 XCO ...
- centos 添加 公钥,root不用输入密码 ssh-keygen
centos 添加 公钥,root不用输入密码 ssh-keygen -t rsa -C "yourEmail" 一通回车后,生成 C:\Users\Reciter/.ssh/id ...