作业来源: "https://edu.cnblogs.com/campus/gzcc/GZCC-16SE2/homework/2851" **


1.简述爬虫原理

通用爬虫

即(搜索引擎),通过各站点主动提交域名等信息,或与DNS服务商合作,爬取大部分站点信息

聚焦爬虫

通过模拟用户(即客户端浏览器)访问服务器的行为,从而达到欺骗服务器,获取数据。

2.理解(聚焦)爬虫开发过程

  1. 发起请求

    向目标服务器发送一个伪造的请求报文

  2. 获取响应

    得到服务器响应的数据

  3. 解析内容

    将得到的数据按一定方式解析

  4. 保存数据

    将解析后的数据收录入文本文件或数据库

    浏览器工作原理:

    向服务端发送请求报文,收到响应报文后解析其中数据,缓存部分数据。

    抓取网站

    使用第三方库requests

    url = "http://news.gzcc.cn/html/xiaoyuanxinwen";

    def use_requests(url):
       '''
          使用到了第三方库requests获取响应
      '''
       response = requests.get(url);
       response.encoding = "utf-8";
       return response;

    运行结果

使用python自带库 urllib

def use_urllib(url):
   '''
          使用到了自带urllib获取响应
  '''
   response = request.urlopen(url);
   return response;

一个简单的html

<!DOCTYPE html>
<html>
<head>
   <meta charset="UTF-8">
   <title>这是一个简单的网页</title>
   <!--简单的样式定义-->
   <style>
       .class1 {
           background: green;
      }
       .ckass2 {
           background: yellow;
      }
   </style>
</head>
<body>
   <div class="class1">
       <strong id="strong">这是一个粗体标签</strong><br/>
       <b id="b">这依旧是一个粗体标签</b><br/>
       <big id="big">这貌似也是一个粗体标签</big><br/>
   </div>
   <div class="ckass2">
       <del id="del">这是一个删除线</del><br/>
       <s id="s">这也是一个删除线</s><br/>
       <strike id="strike">这同样是一个删除线</strike><br/>
   </div>
</body>
</html>

使用BeautifulSoup解析网页

from bs4 import BeautifulSoup

with open(r'simple.html','r',encoding='utf-8') as f:
   text = f.read()
dom_tree = BeautifulSoup(text, 'html.parser');

from_label = dom_tree.select('strong')[0].text;
from_class = dom_tree.select('.class1')[0].text;
from_id = dom_tree.select('#strong')[0].text;

print(from_label, from_class, from_id);

提取新闻

    dom_tree = BeautifulSoup(use_requests("http://news.gzcc.cn/html/2019/xiaoyuanxinwen_0320/11029.html").text, 
                            'html.parser');
   title_from_class = dom_tree.select(".show-title")[0].text;
   print(title_from_class);

   infos_from_class = dom_tree.select(".show-info")[0].text;
   list = infos_from_class.split()[0:-1];
   for i in list:
       print(i);

python学习之爬虫初体验的更多相关文章

  1. appium+夜神模拟器+python安卓app爬虫初体验

    环境搭建:Windows 7 64bit jdk包:jdk-8u171-windows-x64.exe(http://www.oracle.com/technetwork/java/javase/do ...

  2. Node.js 网页瘸腿爬虫初体验

    延续上一篇,想把自己博客的文档标题利用Node.js的request全提取出来,于是有了下面的初哥爬虫,水平有限,这只爬虫目前还有点瘸腿,请看官你指正了. // 内置http模块,提供了http服务器 ...

  3. 第三次随笔--安装虚拟机及学习linux系统初体验

    第三次随笔--安装虚拟机及学习linux系统初体验 ·学习基于VirtualBox虚拟机安装Ubuntu图文教程在自己笔记本上安装Linux操作系统 首先按照老师的提示步骤进行VirtualBox虚拟 ...

  4. Python学习网络爬虫--转

    原文地址:https://github.com/lining0806/PythonSpiderNotes Python学习网络爬虫主要分3个大的版块:抓取,分析,存储 另外,比较常用的爬虫框架Scra ...

  5. 【Go 入门学习】第一篇关于 Go 的博客--Go 爬虫初体验

    一.写在前面 其实早就该写这一篇博客了,为什么一直没有写呢?还不是因为忙不过来(实际上只是因为太懒了).不过好了,现在终于要开始写这一篇博客了.在看这篇博客之前,可能需要你对 Go 这门语言有些基本的 ...

  6. 【Python3爬虫】学习分布式爬虫第一步--Redis分布式爬虫初体验

    一.写在前面 之前写的爬虫都是单机爬虫,还没有尝试过分布式爬虫,这次就是一个分布式爬虫的初体验.所谓分布式爬虫,就是要用多台电脑同时爬取数据,相比于单机爬虫,分布式爬虫的爬取速度更快,也能更好地应对I ...

  7. 【Python3爬虫】爬取美女图新姿势--Redis分布式爬虫初体验

    一.写在前面 之前写的爬虫都是单机爬虫,还没有尝试过分布式爬虫,这次就是一个分布式爬虫的初体验.所谓分布式爬虫,就是要用多台电脑同时爬取数据,相比于单机爬虫,分布式爬虫的爬取速度更快,也能更好地应对I ...

  8. 算法学习:并行化初体验_JAVA实现并行化归并算法

    这个系列包括算法导论学习过程的记录. 最初学习归并算法,对不会使其具体跑在不同的核上报有深深地怨念,刚好算倒重温了这个算法,闲来无事,利用java的thread来体验一下并行归并算法.理论上开的thr ...

  9. Spring Boot 学习笔记1——初体验之3分钟启动你的Web应用[z]

    前言 早在去年就简单的使用了一下Spring Boot,当时就被其便捷的功能所震惊.但是那是也没有深入的研究,随着其在业界被应用的越来越广泛,因此决定好好地深入学习一下,将自己的学习心得在此记录,本文 ...

随机推荐

  1. 元素定位(d4-2)

    一,元素定位①优先级:首先选择id,其次选class,再就是根据其他唯一元素,在更加层级过滤定位,根据多属性定位,②首选CSS定位,在选XPATH定位 1.xpath定位 //*   获取当前网页全部 ...

  2. React(一)使用脚手架创建React项目

    1.安装脚手架 现在使用较多的就是这三种脚手架工具: react-boilerplate react-redux-starter-kit create-react-app 我使用的是第三种,faceb ...

  3. Installation of CarbonData 1.1.0 with Spark 1.6.2

    关键词:carbondata spark thrift 数据仓库 [Install thrift 0.9.3] 注意 要装thrift-java必须先装ant . 有人说要装boost,我在cento ...

  4. 8. 环境变量_数据库_mongoose的基本使用_模型对象的CRUD

    1. 环境变量 系统环境(cmd)使用的变量/命令 能够让我们在cmd环境下运行指定的程序 用户环境变量 path(我们一般设置这个) 系统环境变量 path 过程: 当我们在cmd中输入一个指令 先 ...

  5. 使用php的curl爬去青果教务系统 课表(转)

    1. 分析 首先我们要了解 Http Cookie 的作用(可参考HTTP cookies 详解),简单来说就是维持一个会话,这样我们就能在登陆一个网页后,就能进入这个网页需要登陆的界面. 现在我们需 ...

  6. 解决国内NPM安装依赖速度慢问题

      版权声明:本文为博主原创文章,转载请注明原文地址. http://blog.csdn.net/rongbo_j/article/details/52106580 不知道各位是否遇到这种情况,使用N ...

  7. Sql中获取表结构(字段名称,类型,长度,说明)

    Sql中获取表结构(字段名称,类型,长度,说明) SELECT TableName = OBJECT_NAME(c.object_id), ColumnsName = c.name, Descript ...

  8. HC32F003与STM8S003资源对比,只是对比,大家评论~!

    枯藤老树昏鸦小桥流水人家                                                古道西风瘦马夕阳西下断肠人在天涯  18年悄然过去!19年向我们走来,蓦然回首过 ...

  9. netbeans10支持php7.1-7.3

    2019年1月16日10:56:49 官方发布时间2018年12月27日 PHP支持 NetBeans 10的所有PHP支持都是由我们的NetBeans提交者 Junichi Yamamoto提供的. ...

  10. jenkins安装与配置---windows系统

    记录安装过程中的步骤及遇到的坑,以做借鉴 服务器主机系统: windows9 ;  已安装开发环境: jdk8 ; 我采用的是war包直接运行的方式: 1.下载最新的版本(一个 WAR 文件).Jen ...