from selenium import webdriver import time from bs4 import BeautifulSoup class douyuSelenium(): #初始化,启动斗鱼浏览器 def setUp(self): self.driver = webdriver.PhantomJS() #获取斗鱼房间信息 def testDouyu(self):#'https://www.douyu.com/directory/all' self.driver.get('ht…
分析目标 爬取的是斗鱼主播头像,示范使用的URL似乎是个移动接口(下文有提到),理由是网页主页属于动态页面,爬取难度陡升,当然爬取斗鱼主播头像这么恶趣味的事也不是我的兴趣...... 目标URL如下, http://capi.douyucdn.cn/api/v1/getVerticalRoom?limit=20&offset=150 这是一个json形式文件(所谓json形式的文件实际就是把字典作为字符串保存起来),limit参数表示一次加载多少条目,offset表示偏移量,即加载的第一条项目相…
这是我GitHub上简单的selenium介绍与简单使用:https://github.com/bwyt/spider/tree/master/selenium%E5%9F%BA%E7%A1%80 """ 发送请求 1.1生成driver对象 2.1窗口最大化 2.2下拉滚动条(保证每个位置都刷新) 3.获取所有li标签列表 遍历li标签列表提取图片的连接以及主播的名字 保存图片 翻页 """ import time import request…
# 本程序亲测有效,用于理解爬虫相关的基础知识,不足之处希望大家批评指正from selenium import webdriver import time class Douyu: """爬取斗鱼房间信息""" def __init__(self): # 爬取目标 self.url = 'https://www.douyu.com/directory/all' # 获取浏览器对象 self.driver = webdriver.Chrome()…
本文主要是自己的在线代码笔记.在生物医学本体Ontology构建过程中,我使用Selenium定向爬取生物医学PubMed数据库的内容.        PubMed是一个免费的搜寻引擎,提供生物医学方面的论文搜寻以及摘要.它的数据库来源为MEDLINE(生物医学数据库),其核心主题为医学,但亦包括其他与医学相关的领域,像是护理学或者其他健康学科.它同时也提供对于相关生物医学资讯上相当全面的支援,像是生化学与细胞生物学.        PubMed是因特网上使用最广泛的免费MEDLINE,该搜寻引…
# 本程序亲测有效,用于理解爬虫相关的基础知识,不足之处希望大家批评指正 import requests from lxml import etree from multiprocessing import JoinableQueue as Queue from multiprocessing import Process """爬取目标:http://www.qiushibaike.com/8hr/page/1 利用多进程实现 """ clas…
# 本程序亲测有效,用于理解爬虫相关的基础知识,不足之处希望大家批评指正 from gevent import monkey monkey.patch_all() from gevent.pool import Pool from queue import Queue import requests from lxml import etree import time """爬取目标:http://www.qiushibaike.com/8hr/page/1 利用协程池实现…
# 本程序亲测有效,用于理解爬虫相关的基础知识,不足之处希望大家批评指正 from queue import Queue import requests from lxml import etree from multiprocessing.dummy import Pool import time """爬取目标:http://www.qiushibaike.com/8hr/page/1 利用线程池实现 """ class QiuShi: de…
# 本程序亲测有效,用于理解爬虫相关的基础知识,不足之处希望大家批评指正 from queue import Queue import requests from lxml import etree from threading import Thread """爬取目标:http://www.qiushibaike.com/8hr/page/1 用多线程实现 """ class QiuShi: def __init__(self): # url…
""" this is a module,多行注释 """ import re from urllib import request # BeautifulSoup:解析数据结构 推荐库 Scrapy:爬虫框架 #爬虫,反爬虫,反反爬虫 #ip 封 #代理ip库 class Spider(): url='https://www.panda.tv/cate/lol' root_pattern='<div class="video-i…