前言 本次爬取的视频av号为75993929(11月21的b站榜首),讲的是关于动漫革命机,这是一部超魔幻现实主义动漫(滑稽),有兴趣的可以亲身去感受一下这部魔幻大作. 准备工作 B站弹幕的爬取的接口 https://api.bilibili.com/x/v1/dm/list.so?oid= 打开开发者模式,其中的oid的值 获取视频发出以来的所有弹幕,构造URL https://api.bilibili.com/x/v2/dm/history?type=1&oid=129995312&d…
结巴分词 import jieba """ pip install jieba 1.精确模式 2.全模式 3.搜索引擎模式 """ txt = '中国,是以华夏文明为源泉.中华文化为基础,并以汉族为主体民族的多民族国家,通用汉语.汉字,汉族与少数民族被统称为“中华民族”,又自称为炎黄子孙.龙的传人.' # 精确模式(没有冗余) # res = jieba.cut(txt) # 获取可迭代对象res = jieba.lcut(txt) # 获取列表…
B站弹幕爬取 单个视频弹幕的爬取 ​ B站弹幕都是以xml文件的形式存在的,而xml文件的请求地址是如下形式: http://comment.bilibili.com/233182992.xml ​ 其中,233182992是cid,这个需要从原视频的网页中获取.获取了cid之后,就可以按照上述的形式拼接请求地址,发送get请求,获取对应的xml文件. cid获取 ​ 以华农兄弟的某个视频为例,进入视频主页. 右键启用检查模式 选择网络(Network),刷新网页 点开第一个文件,选择响应(re…
如何通过B站视频AV号找到弹幕对应的xml文件号 首先爬取视频网页,将对应视频网页源码获得 就可以找到该视频的av号aid=8678034 还有弹幕序号,cid=14295428 弹幕存放位置为  http://comment.bilibili.com/14295428.xml 获得该链接内容即可. package BiliBili弹幕爬取; import org.apache.http.HttpEntity; import org.apache.http.client.methods.Clos…
安装完成scrapy后爬取部分信息已经不能满足躁动的心了,那么试试http://quotes.toscrape.com/整站数据爬取 第一部分 项目创建 1.进入到存储项目的文件夹,执行指令 scrapy startproject quotetutorial ,新建一个项目quotetutorial. 2. cd quotetutorial 3. scrapy genspider quotes quotes.toscrape.com  创建quotes.py模板文件 第二部分 配置模板 1.到s…
Scrapy+selenium爬取简书全站 环境 Ubuntu 18.04 Python 3.8 Scrapy 2.1 爬取内容 文字标题 作者 作者头像 发布日期 内容 文章连接 文章ID 思路 分析简书文章的url规则 使用selenium请求页面 使用xpath获取需要的数据 异步存储数据到MySQL(提高存储效率) 实现 前戏: 创建scrapy项目 建立crawlsipder爬虫文件 打开pipelines和middleware 第一步:分析简书文章的url 可以看到url规则为jia…
本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理. 前言 耗子喂汁是什么意思什么梗呢?可能很多人不知道,这个梗是出自马保国,经常上网的人可能听说过这个名字,而他所说的一些话也被当成了一些梗,比如年轻人不讲武德,闪电五连鞭等等 B站马保国的一段视频中他右眼红肿金句频出,部分经典句式甚至被网友们总结归纳成了"保国体",变成了口头禅,比如"年轻人不讲武德,欺侮我六十九岁的老同志""耗子尾汁"(好自为之)…
最近受人之托研究了下b站的数据爬取做个小工具,最后朋友说不需要了,本着开源共享的原则,将研究成果与大家分享一波,话不多说直接上干货 需求分析 给定up主uid和用户uid,爬取用户在该up主所有视频中发的所有弹幕 需求拆解 获取up主所有视频 打开b站,随便搜索一个up主,打开所有视频页面,f12看异步请求就一目了然了 接口地址:https://space.bilibili.com/ajax/member/getSubmitVideos?mid=up主的uid&pagesize=30&ti…
效果 词云展示 弹幕展示 爬取弹幕过程 基本步骤 1.寻找视频url 2.构造请求头 3.寻找弹幕地址 4.根据弹幕地址运用正则或xpath爬取 寻找B站视频的url 制作请求头 headers = {"User-Agent": "浏览器中的User-Agent"} 弹幕地址 1.代码通过这位博主改进的(https://www.cnblogs.com/wuren-best/p/12566297.html) 2.由于B站弹幕地址改变变得越来越难寻找到 但通过原来的弹幕…
项目地址:https://hr.tencent.com/ 步骤一.分析网站结构和待爬取内容 以下省略一万字 步骤二.上代码(不能略了) 1.配置items.py import scrapy class HrTencentItem(scrapy.Item): # define the fields for your item here like: # name = scrapy.Field() # pass position_name = scrapy.Field()#职位名称 position_…