模块:

(1)url管理器:对url进行管理

(2)网页下载器(urllib2):将需要爬取的url指定的网页以字符串的形式下载下来

(3)网页解释器(BeautifulSoup):解析

利用urllib2下载网页的方法:

方法1:

import urllib2,cookielib
url = 'http://www.baidu.com' #定义url res1 = urllib2.urlopen(url) #请求url
print res1.getcode() #获取动态码
print len(res1.read()) #获取内容

方法2:

#伪装成浏览器
import urllib2,cookielib
url = 'http://www.baidu.com' request = urllib2.Request(url)
request.add_header('User-Agent','Mozilla/5.0') #添加http的header,伪装成浏览器
res2 = urllib2.urlopen(request) #发送请求获取结果
print res2.getcode()
print len(res2.read())

方法3:

#添加特殊情景的处理器。例如需要登录cookie、代理proxy、https、网页自动跳转或者互相志向等网页

#处理cookie实例
import urllib2
import cookielib url = 'http://www.baidu.com'
cj = cookielib.CookieJar() #创建cookie容器
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj)) #创建一个opener
urllib2.install_opener(opener) #给urllib2安装opener
res3 = urllib2.urlopen(url) #发送请求获取结果
print res3.getcode()
print len(res3.read())
print cj

网页解释器种类:

(1)正则表达式

(2)html.parser

(3)BeautifulSoup:第三方包

(4)lxml

BeautifulSoup语法:

(1)创建bs对象
(2)搜索节点find_all,find(搜索第一个节点)
  搜索内容包括:节点名字,节点属性,节点内容
  例如:<a href='123.html' class='article_link'>hello,python!</a>
    节点名字:a
    节点属性:href='123.html' 或 class='article_link'
      节点内容:hello,python!
(3)访问节点

from bs4 import BeautifulSoup

html_doc = '''
<!DOCTYPE html> <html>
<head>
<meta http-equiv="content-type" content="text/html;charset=utf-8">
<title>页面1</title>
</head> <body>
<a href='http://www.baidu.com'>百度</a>
<a href='http://www.youku.com'>优酷</a>
<a href='http://www.hao123.com'>hao123</a>
</body>
</html>
''' soup = BeautifulSoup(html_doc,'html.parser',from_encoding='utf-8') print '获取所有链接:'
links = soup.find_all('a')
for link in links:
print link.name,link['href'],link.get_text() print '只获取百度的链接:'
link_node = soup.find('a',href='http://www.baidu.com')
print link_node.name,link_node['href'],link_node.get_text()

输出结果:

获取所有链接:
a http://www.baidu.com 百度
a http://www.youku.com 优酷
a http://www.hao123.com hao123
获取百度的链接:
a http://www.baidu.com 百度
正则表达式匹配
a http://www.baidu.com 百度

python:爬虫的更多相关文章

  1. Python 爬虫模拟登陆知乎

    在之前写过一篇使用python爬虫爬取电影天堂资源的博客,重点是如何解析页面和提高爬虫的效率.由于电影天堂上的资源获取权限是所有人都一样的,所以不需要进行登录验证操作,写完那篇文章后又花了些时间研究了 ...

  2. python爬虫成长之路(一):抓取证券之星的股票数据

    获取数据是数据分析中必不可少的一部分,而网络爬虫是是获取数据的一个重要渠道之一.鉴于此,我拾起了Python这把利器,开启了网络爬虫之路. 本篇使用的版本为python3.5,意在抓取证券之星上当天所 ...

  3. python爬虫学习(7) —— 爬取你的AC代码

    上一篇文章中,我们介绍了python爬虫利器--requests,并且拿HDU做了小测试. 这篇文章,我们来爬取一下自己AC的代码. 1 确定ac代码对应的页面 如下图所示,我们一般情况可以通过该顺序 ...

  4. python爬虫学习(6) —— 神器 Requests

    Requests 是使用 Apache2 Licensed 许可证的 HTTP 库.用 Python 编写,真正的为人类着想. Python 标准库中的 urllib2 模块提供了你所需要的大多数 H ...

  5. 批量下载小说网站上的小说(python爬虫)

    随便说点什么 因为在学python,所有自然而然的就掉进了爬虫这个坑里,好吧,主要是因为我觉得爬虫比较酷,才入坑的. 想想看,你可以批量自动的采集互联网上海量的资料数据,是多么令人激动啊! 所以我就被 ...

  6. python 爬虫(二)

    python 爬虫 Advanced HTML Parsing 1. 通过属性查找标签:基本上在每一个网站上都有stylesheets,针对于不同的标签会有不同的css类于之向对应在我们看到的标签可能 ...

  7. Python 爬虫1——爬虫简述

    Python除了可以用来开发Python Web之后,其实还可以用来编写一些爬虫小工具,可能还有人不知道什么是爬虫的. 一.爬虫的定义: 爬虫——网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区 ...

  8. Python爬虫入门一之综述

    大家好哈,最近博主在学习Python,学习期间也遇到一些问题,获得了一些经验,在此将自己的学习系统地整理下来,如果大家有兴趣学习爬虫的话,可以将这些文章作为参考,也欢迎大家一共分享学习经验. Pyth ...

  9. [python]爬虫学习(一)

    要学习Python爬虫,我们要学习的共有以下几点(python2): Python基础知识 Python中urllib和urllib2库的用法 Python正则表达式 Python爬虫框架Scrapy ...

  10. python爬虫学习(1) —— 从urllib说起

    0. 前言 如果你从来没有接触过爬虫,刚开始的时候可能会有些许吃力 因为我不会从头到尾把所有知识点都说一遍,很多文章主要是记录我自己写的一些爬虫 所以建议先学习一下cuiqingcai大神的 Pyth ...

随机推荐

  1. xampp 配置虚拟主机

    1.安装好xampp后 2.找到安装目录 apache目录--conf目录--extra目录--httpd-vhosts.conf文件(用记事本或者别的编辑器打开) 文件最后添加代码 <Virt ...

  2. 永久修改 CMD 的 PROMPT 显示结果/给cmd命令显示加上运行时间

    1.环境 windows10 系统 2.打开 cmd ,快捷键 Ctrl + x 然后a 3.输入 REG ADD "HKLM\SYSTEM\CurrentControlSet\Contro ...

  3. C++ 编译报错

    vs编译错误描绘如下: 1>f:\company\newphone\softphoneservice\softphoneservice\EventS.h(13): error C2143: 语法 ...

  4. Nginx配置文件说明

    在此记录下Nginx服务器nginx.conf的配置文件说明, 部分注释: #运行用户user www-data;    #启动进程,通常设置成和cpu的数量相等worker_processes  1 ...

  5. Image 抠图,背景透明处理

    import java.awt.Graphics2D; import java.awt.image.BufferedImage; import java.io.File; import javax.i ...

  6. mysql source导入报错ERROR 1366的解决方法

    文件是utf8的,数据库表是utf8的,为什么客户端导入会报错呢? 发现客户端用的是gbk的 改为utf8后正常 SHOW VARIABLES LIKE 'character%'; +-------- ...

  7. centos6升级python2.7

    #下载python #wget http://python.org/ftp/python/2.7.3/Python-2.7.3.tar.bz2 #安装支持https yum install opens ...

  8. AIX 环境下遇到Device Busy问题

    IBM AIX v5.3操作系统环境下在对网络或网卡进行操作过程中经常遇到"Device Busy"而终止操作例如:#rmdev -l ent1遇到如下返回信息Method err ...

  9. 升级SSH

    本例使用CentOS6.6 原SSH版本为5.3P1 一.准备好需要升级到的新版本的软件包 openssh下载地址:http://www.openssh.com/portable.html#http ...

  10. jquery 原理

    /* * my-jquery-1.0 *//* * 网上也有很多实现的版本,不过这是我在我自己的理解下写的,加上注释,希望可以解释清楚.*//* * 整个jquery包含在一个匿名函数中,专业点叫闭包 ...