Python 爬虫的工具列表
这个列表包含与网页抓取和数据处理的Python库
网络
- 通用
- urllib -网络库(stdlib)。
- requests -网络库。
- grab - 网络库(基于pycurl)。
- pycurl - 网络库(绑定libcurl)。
- urllib3 - Python HTTP库,安全连接池、支持文件post、可用性高。
- httplib2 - 网络库。
- RoboBrowser - 一个简单的、极具Python风格的Python库,无需独立的浏览器即可浏览网页。
- MechanicalSoup -一个与网站自动交互Python库。
- mechanize -有状态、可编程的Web浏览库。
- socket - 底层网络接口(stdlib)。
- Unirest for Python - Unirest是一套可用于多种语言的轻量级的HTTP库。
- hyper - Python的HTTP/2客户端。
- PySocks - SocksiPy更新并积极维护的版本,包括错误修复和一些其他的特征。作为socket模块的直接替换。
- 异步
网络爬虫框架
- 功能齐全的爬虫
- 其他
HTML/XML解析器
- 通用
- lxml - C语言编写高效HTML/ XML处理库。支持XPath。
- cssselect - 解析DOM树和CSS选择器。
- pyquery - 解析DOM树和jQuery选择器。
- BeautifulSoup - 低效HTML/ XML处理库,纯Python实现。
- html5lib - 根据WHATWG规范生成HTML/ XML文档的DOM。该规范被用在现在所有的浏览器上。
- feedparser - 解析RSS/ATOM feeds。
- MarkupSafe - 为XML/HTML/XHTML提供了安全转义的字符串。
- xmltodict - 一个可以让你在处理XML时感觉像在处理JSON一样的Python模块。
- xhtml2pdf - 将HTML/CSS转换为PDF。
- untangle - 轻松实现将XML文件转换为Python对象。
- 清理
文本处理
用于解析和操作简单文本的库。
- 通用
- difflib - (Python标准库)帮助进行差异化比较。
- Levenshtein - 快速计算Levenshtein距离和字符串相似度。
- fuzzywuzzy - 模糊字符串匹配。
- esmre - 正则表达式加速器。
- ftfy - 自动整理Unicode文本,减少碎片化。
- 转换
- unidecode - 将Unicode文本转为ASCII。
- 字符编码
- Slug化
- awesome-slugify - 一个可以保留unicode的Python slugify库。
- python-slugify - 一个可以将Unicode转为ASCII的Python slugify库。
- unicode-slugify - 一个可以将生成Unicode slugs的工具。
- pytils - 处理俄语字符串的简单工具(包括pytils.translit.slugify)。
- 通用解析器
- 人的名字
- python-nameparser -解析人的名字的组件。
- 电话号码
- phonenumbers -解析,格式化,存储和验证国际电话号码。
- 用户代理字符串
- python-user-agents - 浏览器用户代理的解析器。
- HTTP Agent Parser - Python的HTTP代理分析器。
特定格式文件处理
解析和处理特定文本格式的库。
- 通用
- tablib - 一个把数据导出为XLS、CSV、JSON、YAML等格式的模块。
- textract - 从各种文件中提取文本,比如 Word、PowerPoint、PDF等。
- messytables - 解析混乱的表格数据的工具。
- rows - 一个常用数据接口,支持的格式很多(目前支持CSV,HTML,XLS,TXT – 将来还会提供更多!)。
- Office
- python-docx - 读取,查询和修改的Microsoft Word2007/2008的docx文件。
- xlwt / xlrd - 从Excel文件读取写入数据和格式信息。
- XlsxWriter - 一个创建Excel.xlsx文件的Python模块。
- xlwings - 一个BSD许可的库,可以很容易地在Excel中调用Python,反之亦然。
- openpyxl - 一个用于读取和写入的Excel2010 XLSX/ XLSM/ xltx/ XLTM文件的库。
- Marmir - 提取Python数据结构并将其转换为电子表格。
- Markdown
- Python-Markdown - 一个用Python实现的John Gruber的Markdown。
- Mistune - 速度最快,功能全面的Markdown纯Python解析器。
- markdown2 - 一个完全用Python实现的快速的Markdown。
- YAML
- PyYAML - 一个Python的YAML解析器。
- CSS
- cssutils - 一个Python的CSS库。
- ATOM/RSS
- feedparser - 通用的feed解析器。
- SQL
- sqlparse - 一个非验证的SQL语句分析器。
- HTTP
- HTTP
- http-parser - C语言实现的HTTP请求/响应消息解析器。
- 微格式
- opengraph - 一个用来解析Open Graph协议标签的Python模块。
- 可移植的执行体
- pefile - 一个多平台的用于解析和处理可移植执行体(即PE)文件的模块。
- PSD
- psd-tools - 将Adobe Photoshop PSD(即PE)文件读取到Python数据结构。
自然语言处理
处理人类语言问题的库。
- NLTK -编写Python程序来处理人类语言数据的最好平台。
- Pattern - Python的网络挖掘模块。他有自然语言处理工具,机器学习以及其它。
- TextBlob - 为深入自然语言处理任务提供了一致的API。是基于NLTK以及Pattern的巨人之肩上发展的。
- jieba - 中文分词工具。
- SnowNLP - 中文文本处理库。
- loso - 另一个中文分词库。
- genius - 基于条件随机域的中文分词。
- langid.py - 独立的语言识别系统。
- Korean - 一个韩文形态库。
- pymorphy2 - 俄语形态分析器(词性标注+词形变化引擎)。
- PyPLN – 用Python编写的分布式自然语言处理通道。这个项目的目标是创建一种简单的方法使用NLTK通过网络接口处理大语言库。
浏览器自动化与仿真
- selenium - 自动化真正的浏览器(Chrome浏览器,火狐浏览器,Opera浏览器,IE浏览器)。
- Ghost.py - 对PyQt的webkit的封装(需要PyQT)。
- Spynner - 对PyQt的webkit的封装(需要PyQT)。
- Splinter - 通用API浏览器模拟器(selenium web驱动,Django客户端,Zope)。
多重处理
- threading - Python标准库的线程运行。对于I/O密集型任务很有效。对于CPU绑定的任务没用,因为python GIL。
- multiprocessing - 标准的Python库运行多进程。
- celery - 基于分布式消息传递的异步任务队列/作业队列。
- concurrent-futures - concurrent-futures 模块为调用异步执行提供了一个高层次的接口。
异步
异步网络编程库
- asyncio - (在Python 3.4 +版本以上的 Python标准库)异步I/O,时间循环,协同程序和任务。
- Twisted - 基于事件驱动的网络引擎框架。
- Tornado - 一个网络框架和异步网络库。
- pulsar - Python事件驱动的并发框架。
- diesel - Python的基于绿色事件的I/O框架。
- gevent – 一个使用greenlet 的基于协程的Python网络库。
- eventlet - 有WSGI支持的异步框架。
- Tomorrow - 异步代码的奇妙的修饰语法。
队列
- celery - 基于分布式消息传递的异步任务队列/作业队列。
- huey - 小型多线程任务队列。
- mrq - Mr. Queue – 使用redis & Gevent 的Python分布式工作任务队列。
- RQ - 基于Redis的轻量级任务队列管理器。
- simpleq - 一个简单的,可无限扩展,基于Amazon SQS的队列。
- python-gearman - Gearman的Python API。
云计算
- picloud - 云端执行Python代码。
- dominoup.com - 云端执行R,Python和matlab代码。
电子邮件
电子邮件解析库
网址和网络地址操作
解析/修改网址和网络地址库。
- URL
- furl - 一个小的Python库,使得操纵URL简单化。
- purl - 一个简单的不可改变的URL以及一个干净的用于调试和操作的API。
- urllib.parse - 用于打破统一资源定位器(URL)的字符串在组件(寻址方案,网络位置,路径等)之间的隔断,为了结合组件到一个URL字符串,并将“相对URL”转化为一个绝对URL,称之为“基本URL”。
- tldextract - 从URL的注册域和子域中准确分离TLD,使用公共后缀列表。
- 网络地址
- netaddr – 用于显示和操纵网络地址的Python库。
网页内容提取
提取网页内容的库。
- HTML页面的文本和元数据
- newspaper – 用Python进行新闻提取、文章提取和内容策展。
- html2text – 将HTML转为Markdown格式文本。
- python-goose – HTML内容/文章提取器。
- lassie - 人性化的网页内容检索工具
- micawber - 一个从网址中提取丰富内容的小库。
- sumy -一个自动汇总文本文件和HTML网页的模块
- Haul - 一个可扩展的图像爬虫。
- python-readability - arc90 readability工具的快速Python接口。
- scrapely - 从HTML网页中提取结构化数据的库。给出了一些Web页面和数据提取的示例,scrapely为所有类似的网页构建一个分析器。
- 视频
- youtube-dl - 一个从YouTube下载视频的小命令行程序。
- you-get - Python3的YouTube、优酷/ Niconico视频下载器。
- 维基
- WikiTeam - 下载和保存wikis的工具。
WebSocket
用于WebSocket的库。
- Crossbar - 开源的应用消息传递路由器(Python实现的用于Autobahn的WebSocket和WAMP)。
- AutobahnPython - 提供了WebSocket协议和WAMP协议的Python实现并且开源。
- WebSocket-for-Python - Python 2和3以及PyPy的WebSocket客户端和服务器库。
DNS解析
计算机视觉
- OpenCV - 开源计算机视觉库。
- SimpleCV – 用于照相机、图像处理、特征提取、格式转换的简介,可读性强的接口(基于OpenCV)。
- mahotas – 快速计算机图像处理算法(完全使用 C++ 实现),完全基于 numpy 的数组作为它的数据类型。
代理服务器
- shadowsocks – 一个快速隧道代理,可帮你穿透防火墙(支持TCP和UDP,TFO,多用户和平滑重启,目的IP黑名单)。
- tproxy - tproxy是一个简单的TCP路由代理(第7层),基于Gevent,用Python进行配置。
其他Python工具列表
Python 爬虫的工具列表的更多相关文章
- Python 爬虫的工具列表 附Github代码下载链接
Python爬虫视频教程零基础小白到scrapy爬虫高手-轻松入门 https://item.taobao.com/item.htm?spm=a1z38n.10677092.0.0.482434a6E ...
- Python 爬虫的工具列表大全
Python 爬虫的工具列表大全 这个列表包含与网页抓取和数据处理的Python库.网络 通用 urllib -网络库(stdlib). requests -网络库. grab – 网络库(基于pyc ...
- Python 爬虫的工具列表
Python 爬虫的工具列表 这个列表包含与网页抓取和数据处理的Python库 网络 通用 urllib -网络库(stdlib). requests -网络库. grab – 网络库(基于pycur ...
- 【转】Python 爬虫的工具列表【预】
这个列表包含与网页抓取和数据处理的Python库 网络 通用 urllib -网络库(stdlib). requests -网络库. grab – 网络库(基于pycurl). pycurl – 网络 ...
- [转] Python 爬虫的工具列表 附Github代码下载链接
转自http://www.36dsj.com/archives/36417 这个列表包含与网页抓取和数据处理的Python库 网络 通用 urllib -网络库(stdlib). requests - ...
- Python爬虫开发者工具介绍
前言 本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理. chrome 开发者工具 当我们爬取不同的网站时,每个网站页面的实现方式各不相同,我们需要对 ...
- 零基础教你写python爬虫
大家都知道python经常被用来做爬虫,用来在互联网上抓取我们需要的信息. 使用Python做爬虫,需要用到一些包: requests urllib BeautifulSoup 等等,关于python ...
- Python爬虫目录
Python爬虫目录 工具使用 Pycharm 连接Linux 远程开发 mongodb在windows下安装启动 爬虫抓包工具Fiddle设置 爬虫抓包工具Charles设置 爬虫工具fiddle在 ...
- 洗礼灵魂,修炼python(52)--爬虫篇—【转载】爬虫工具列表
与爬虫相关的常用模块列表. 原文出处:传送门链接 网络 通用 urllib -网络库(stdlib). requests -网络库. grab – 网络库(基于pycurl). pycurl – 网络 ...
随机推荐
- Python 3.6 TypeEror: iter() returned non-iterator of type
环境:Python 3.6 class Fabs(object): def __init__(self,max): self.max = max self.n, self.a, self.b = 0, ...
- SQL SERVER数据库 三种 恢复模式
SQL SERVER 2005 以后三种恢复模式: 简单(Sample),完全(Full),大批量(Bulk_Logged) 完全备份模型 完全备份模式是指在出现数据文件毁坏时丢失数据的风险最小.如果 ...
- requirej入门(一)
随着网站功能逐渐丰富,网页中的js也变得越来越复杂和臃肿,原有通过script标签来导入一个个的js文件这种方式已经不能满足现在互联网开发模式,我们需要团队协作.模块复用.单元测试等等一系列复杂的需求 ...
- 《深入浅出Node.js》学习笔记(一)
看了朴灵前辈的node.js系列文章,很开阔视野,虽然能力有限还是有很多不懂,但是还是希望能写下笔记,初步对node.js有点了解. 一.概念 Node.js不是JS应用.而是JS运行平台 Node. ...
- VM虚拟机安装centos7
一 安装centos7 下面地址下载基础版 CentOS-7-x86_64-Minimal-1810.iso 镜像 918M http://isoredirect.centos.org/centos ...
- 在PHP中使用全局变量的几种方法
简介 即使开发一个新的大型PHP程序,你也不可避免的要使用到全局数据,因为有些数据是需要用到你的代码的不同部分的.一些常见的全局数据有:程序设定类.数据库连接类.用户资料等等.有很多方法能够使这些数据 ...
- Java设计模式—中介者模式
中介者模式是一种并不常用的模式,在此简单阐述阐述. 定义:用一个中介者对象封装一系列的对象交互,中介者使各对象不需要显示地相互作用,从而使耦合松散,而且可以独立地改变它们之间的交互. 类型:行为类模式 ...
- 腾讯bugly 映射用法
package com.tencent.bugly.agent; import android.app.Activity; import android.content.Context; import ...
- dell Nx000系列交换机
dell n2048(P) dell n3048(P) dell n4064(F) P: PoE+ F: SFP+ Model GbE 10GbE(SFP+) 40GbE(QSFP+) Layer d ...
- strdup和strndup函数
首先说明一下:这两个函数不建议使用,原因是返回内存地址把释放权交给别的变量,容易忘记释放. 一.strdup函数 函数原型 头文件:#include <string.h> char *st ...