1.分析豌豆荚的接口的规律

- 获取所有app的接口url

2.往每一个接口发送请求,获取json数据

  • 解析并提取想要的数据

    • app_data:

      • 1.图标

        app_img_url
  • 2.名字

    app_name

    - 3.下载量

    app_download_num

    - 4.大小

    app_size

    - 5.简介

    app_comment

    - 6.详情页url

    app_detail

mysql_control.py

import pymysql

class MySQL:
def __init__(self):
self.client = pymysql.connect(
host='127.0.0.1',
port=3306,
user='tomjoy',
password='123456',
database='wandoujia',
autocommit=True,
) self.cursor = self.client.cursor(
pymysql.cursors.DictCursor
) def execute(self, sql, args):
try:
self.cursor.execute(sql, args)
except Exception as e:
print(e) def close(self):
self.cursor.close()
self.client.close()

main.py

import requests
import re
from bs4 import BeautifulSoup
from mysql_control import MySQL # 1.发送请求:
def get_html(url):
res = requests.get(url)
return res # 2.解析数据
def parse_data(data):
soup = BeautifulSoup(data, 'lxml')
# 获取所有的li标签,li中包含所有想要的数据
li_list = soup.find_all(name='li')
for li in li_list:
# app详情url
app_detail = li.find(name='a').attrs.get('href')
print('详情url:', app_detail) # app图标url
app_img_url = li.find(name='img').attrs.get('data-original')
print('图标url:', app_img_url) # app名称
app_name = li.find(name='img').attrs.get('alt')
print('名称:', app_name) # 下载人数
app_download_num = li.find(name='span', attrs={'class': 'install-count'}).text
print('下载人数:', app_download_num) # 大小
try:
# 有可能匹配规则是错的或者没有大小,然后获取不到text文本
app_size = li.find(name='span', attrs={'title': re.compile('MB')}).text
except Exception as e:
# 放弃匹配规则不一样的数据,默认为空字符串
app_size = ''
print('大小:', app_size) # 简介
app_comment = li.find(name='div', attrs={'class': 'comment'}).text
print('简介:', app_comment)
print('*' * 100) yield app_name, app_detail, app_img_url, app_download_num, app_size, app_comment # app_data = f"""
# '名称:', {app_name},
# '详情url:', {app_detail},
# '图标url:', {app_img_url},
# '下载人数:', {app_download_num},
# '大小:', {app_size},
# '简介:', {app_comment}
# """
# save(app_data) # 3.保存数据到数据库中
def save(generator_data, mysql_obj): for data in generator_data:
print(data)
sql = 'insert into wandoujia(app_name, app_detail, app_img_url, app_download_num, app_size, app_comment)' \
' values(%s, %s, %s, %s, %s, %s) '
print(sql)
mysql_obj.execute(sql, data) if __name__ == '__main__':
mysql_obj = MySQL()
# 1.获取所有app的接口url
for i in range(1,42):
url = f'https://www.wandoujia.com/wdjweb/api/top/more?resourceType=0&page={i}&ctoken=mrci2hDXHNxavE42fJ85v3JE' # 获取响应数据
res = get_html(url) # 将json数据转成字典
res_dict = res.json()
# 获取字典中data的值中的content的值
data = res_dict.get('data').get('content')
generator_data = parse_data(data) # 保存数据到数据库中
save(generator_data, mysql_obj) mysql_obj.close()

requests + bs4 爬取豌豆荚所有应用的信息的更多相关文章

  1. requests+bs4爬取豌豆荚排行榜及下载排行榜app

    爬取排行榜应用信息 爬取豌豆荚排行榜app信息 - app_detail_url - 应用详情页url - app_image_url - 应用图片url - app_name - 应用名称 - ap ...

  2. python爬取豌豆荚中的详细信息并存储到SQL Server中

    买了本书<精通Python网络爬虫>,看完了第6章,我感觉我好像可以干点什么:学的不多,其中的笔记我放到了GitHub上:https://github.com/NSGUF/PythonLe ...

  3. requests bs4 爬取 资讯 图片

    #!/usr/bin/env python # Version = 3.5.2 # __auth__ = '无名小妖' import requests from bs4 import Beautifu ...

  4. [实战演练]python3使用requests模块爬取页面内容

    本文摘要: 1.安装pip 2.安装requests模块 3.安装beautifulsoup4 4.requests模块浅析 + 发送请求 + 传递URL参数 + 响应内容 + 获取网页编码 + 获取 ...

  5. python实战项目 — 使用bs4 爬取猫眼电影热榜(存入本地txt、以及存储数据库列表)

    案例一: 重点: 1. 使用bs4 爬取 2. 数据写入本地 txt from bs4 import BeautifulSoup import requests url = "http:// ...

  6. 使用request+bs4爬取所有股票信息

    爬取前戏 我们要知道利用selenium是非常无敌的,自我认为什么反爬不反爬都不在话下,但是今天我们为什么要用request+bs4爬取所有股票信息呢?因为他比较原始,因此今天的数据,爬取起来也是比较 ...

  7. requests+正则爬取豆瓣图书

    #requests+正则爬取豆瓣图书 import requests import re def get_html(url): headers = {'User-Agent':'Mozilla/5.0 ...

  8. requests+正则表达式爬取ip

    #requests+正则表达式爬取ip #findall方法,如果表达式中包含有子组,则会把子组单独返回出来,如果有多个子组,则会组合成元祖 import requests import re def ...

  9. 爬虫系列4:Requests+Xpath 爬取动态数据

    爬虫系列4:Requests+Xpath 爬取动态数据 [抓取]:参考前文 爬虫系列1:https://www.cnblogs.com/yizhiamumu/p/9451093.html [分页]:参 ...

随机推荐

  1. PHP中header头设置Cookie与内置setCookie的区别

    首先声明,浏览的Cookie操作都是通过HTTP Header(俗称“Http头”) 来实现.所有的服务器与客户端之间Cookie数据传输都是通过Http请求头来操作. PHP中setCookie(函 ...

  2. 阿里云DataV专业版发布,为可视化创造更多可能!

    阿里云数据可视化应用工具DataV正式推出专业版,该版本为可视化领域专业团队和从业者量身打造,定位数据可视分析大屏搭建场景,让使用者可以轻松hold住复杂交互设计和实时数据交互查询需求. 什么是Dat ...

  3. 多版本python共存,安装三方库到指定python版本

    多版本python安装过程略过不提提供完美解决python启动和各版本pip问题: python3下pip安装命令如下: py -3 -m pip install xxxxxx python2下pip ...

  4. Oracle/PLSQL存储过程详解

    原文链接:https://blog.csdn.net/zezezuiaiya/article/details/79557621 Oracle/PLSQL存储过程详解 2018-03-14 17:31: ...

  5. LRJ-Example-06-02-Uva514

    #define _CRT_SECURE_NO_WARNINGS #include<cstdio> #include<stack> using namespace std; + ...

  6. 【原生JS】进阶最后一个编程篇(与之前的选项卡不同的做法)

    完成效果图: <!DOCTYPE html> <html> <head lang="en"> <meta charset="UT ...

  7. Flex AIR应用换肤功能(Android和IOS)

    说明 换肤功能,即将整个应用的皮肤都进行更换,其实质,是动态加载swf文件的过程,而这些swf文件则有css文件编译而来. 关于换肤功能,在android和ios系统的实现方式是不同的.主要原因,是因 ...

  8. poj 2993

    跟poj 2996反过来了,这里比较麻烦的就是处理白棋和黑棋各棋子对应的位置 还有在最后打印棋盘式|,:,.的时候会有点繁琐(- - ACMer新手 ): 直接看代码吧: #include<cs ...

  9. 困扰的问题终于解决了-docker时区不正确的问题修改记

    前一阵子有一台服务器,mysql的时间比北京时间晚了8个小时.我知道是时区的问题,但是不知道为什么弄成这样,宿主机没有问题,后来一看mysql的docker,时区是错的. mybatis-plus打印 ...

  10. centos7搭建集群必知:centos7已经无iptables,只有firewall

    1.防火墙概述 centos7搭建集群,发现没有iptables,需要安装.防火墙为firewalle CentOS7默认的防火墙不是iptables,而是firewalle. CentOS 7.0默 ...