最近有个爬取各国领导人信息的奇怪需求,要求百度和维基两种版本的数据,最要命的还要保持数据的结构不变。正好印象中隐约记得维基有专门的领导人列表页,不考虑爬取下来的格式不变的话应该很好爬的样子。

首先思路是通过列表页把每个领导人的信息页链接爬取下来,然后再逐个去解析信息页就OK了,思路很简单。

那么准备好爬取入口,在wiki上有一个各国领导人信息的列表页:https://zh.wikipedia.org/wiki/各国领导人列表

打开这个页面是这样的:

简直就是专为爬取设计的入口页,看了下页面代码结构,也是好爬的不行,查看具体的人物信息页链接是这样的格式:

https://zh.wikipedia.org/wiki/+名字

也就是这一页爬名字统统爬取下来,再凑好链接,加入任务列表就好了。

这是爬取列表页生成任务队列的代码:

 /**
          * 1.拿到列表页,得到所有领导人的姓名
          * 2.用姓名拼凑出链接,加入爬取队列
          */
         //得到信息列表并遍历列表
         List<Selectable> peopleTable = page.getHtml().xpath("//div[@id='mw-content-text']/div/table").nodes();
         for (Selectable table : peopleTable) {
             if (count != 0) {
                 break;
             }
             //拼凑链接加入爬取队列
             List<Selectable> peopleLine = table.xpath("//tr").nodes();
             for (Selectable line : peopleLine) {
                 String name = line.xpath("//td[3]/a/text()").get();
                 if (null == name || "".equals(name)) {
                     continue;
                 }
                 String country = line.xpath("//td[1]/a/text()").get();
                 //System.out.println("名字:"+name+"-------------"+"链接:"+url);
                 countrys.put(name, country);
                 String url = "https://zh.wikipedia.org/wiki/" + name;
                 page.addTargetRequest(url);
             }
         }

接下来就去人物信息页查看页面结构,发现人物信息页的数据结构不太好爬,是这样子的:

全是p标签和h标签的结构,看着脑袋疼,不过发现了一个有意思的东西,就是页面中有个这样的目录:

那么就根据目录来定位内容进行爬取,正好保证了数据的结构不变。

仔细查看目录发现目录跟后面的内容还是有联系点的:

------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

很明显的联系,那就根据目录来爬取了。

在这之前需要先设计好数据,考虑到之后可能不止存领导人的信息而且每个人物的目录层次变动性很大,所以使用mongodb存数据

设计表如下,尽可能把页面上的数据都朗阔进去,虽然不一定都爬下来:

接下来就开始写解析代码将数据抽取出来了,这一步需要用到jsoup来解析页面,里面有个很好用的方法就是定位到标签后可以拿到它的前一个或后一个兄弟标签,非常适用于这种文本段落没明显分层的页面。下面的是解析代码:

 /**
          * 1.解析详细人物信息页
          * 2.编写抽取规则,进行数据抽取
          */
         leader = new Leader();
         //从链接得到所解析人物的姓名,再得到国籍
         String leaderUrl = page.getUrl().get();
         String leaderName = leaderUrl.replace("https://zh.wikipedia.org/wiki/", "");
         String leaderCountry = countrys.get(leaderName);
         System.out.println(leaderName + "--------" + leaderCountry);
         leader.setId("" + count);
         leader.setName(leaderName);
         leader.setNationality(leaderCountry);
         leader.setType(new String[] { "军事", "政治" });
 //        testa = leaderName;        

         //解析页面,得到页面的导航目录,通过目录爬取具体内容
         List<Selectable> lists = page.getHtml().xpath("//div[@id='toc']/ul/li").nodes();
         List<Item> leaderDetail = new ArrayList<>();
         for (Selectable list : lists) {
             Item item = new Item();//一级目录
             List<SubItems> subItems = new ArrayList<SubItems>();//二级目录
             List<Selectable> secondLists = list.xpath("//ul//li").nodes();
             //如果一级目录下记录不为0,说明当前目录下存在二级标题。否则只存在一级标题
             if (secondLists.size() != 0) {
                 String firstItem = list.xpath("//span[2]/text()").get();
                 //抽取二级目录数据
                 for (Selectable secondList : secondLists) {
                     SubItems subItem = new SubItems();
                     String[] secondItem = getText(secondList, page);
                     subItem.setName(secondItem[0]);
                     subItem.setValue(secondItem[1]);
                     subItems.add(subItem);
                 }
                 item.setName(firstItem);
                 item.setValue("");
                 item.setSubItems(subItems);
                 leaderDetail.add(item);
             } else {
                 //抽取一级目录数据
                 String[] secondItem = getText(list, page);
                 item.setName(secondItem[0]);
                 item.setValue(secondItem[1]);
                 leaderDetail.add(item);
             }
         }

其中的二级目录内容获取方法:

 public String[] getText(Selectable select, Page page) {
         String itemId = select.xpath("//a/@href").get();
         itemId = itemId.replace("#", "");

         Document doc = Jsoup.parse(page.getHtml().get());
         String citiao = doc.getElementById(itemId).text();
         Element elt = doc.getElementById(itemId).parent();

         StringBuffer sb = new StringBuffer();
         while (true) {
             elt = elt.nextElementSibling();
             if (elt == null || "h2".equals(elt.tagName()) || "h3".equals(elt.tagName())) {
                 break;
             }
             sb.append(elt.text()).append("\r\n");
         }
         return new String[] { citiao, sb.toString() };
     }

这里面主要的就是要保持爬取下来的数据要按目录结构存储,一级目录包含二级目录,对应关系要把持住,在设计数据库的时候就需要考虑到。

然后是一些相关bean:

 public class Leader {
     private String id;
     private String name;
     private String gender;
     private String nationality;
     private Date birthday;
     private String birthPlace;
     private String[] type;
     private List<Item> info;
     private List<Item> details;
     public String getId() {
         return id;
     }
     public void setId(String id) {
         this.id = id;
     }
     public String getName() {
         return name;
     }
     public void setName(String name) {
         this.name = name;
     }
 public class Item {
     private String name;
     private String value;
     private List<SubItems> subItem;
     public String getName() {
         return name;
     }
     public void setName(String name) {
         this.name = name;
     }
     public String getValue() {
         return value;
     }
     public void setValue(String value) {
         this.value = value;
     }
     public List<SubItems> getSubItems() {
         return subItem;
     }
     public void setSubItems(List<SubItems> subItem) {
         this.subItem = subItem;
     }

 }
 public class SubItems {
     private String name;
     private String value;
     public String getName() {
         return name;
     }
     public void setName(String name) {
         this.name = name;
     }
     public String getValue() {
         return value;
     }
     public void setValue(String value) {
         this.value = value;
     }

 }

最后测试的时候,发现一个很严重的问题,就是有些叫不出名字的国家,他们的领导人页面没有目录(就寥寥几句简介)。。。。。。导致信息爬取不出。

这是最后无目录的领导人个数:

这是数据库的数据:

只能说成功了一半。~~|

记一次wiki数据爬取过程的更多相关文章

  1. 一个免费ss网站的数据爬取过程

    一个免费ss网站的数据爬取过程 Apr 14, 2019 引言 爬虫整体概况 主要功能方法 绕过DDOS保护(Cloudflare) post中参数a,b,c的解析 post中参数a,b,c的解析 p ...

  2. 芝麻HTTP:JavaScript加密逻辑分析与Python模拟执行实现数据爬取

    本节来说明一下 JavaScript 加密逻辑分析并利用 Python 模拟执行 JavaScript 实现数据爬取的过程.在这里以中国空气质量在线监测分析平台为例来进行分析,主要分析其加密逻辑及破解 ...

  3. Python爬虫入门教程 15-100 石家庄政民互动数据爬取

    石家庄政民互动数据爬取-写在前面 今天,咱抓取一个网站,这个网站呢,涉及的内容就是 网友留言和回复,特别简单,但是网站是gov的.网址为 http://www.sjz.gov.cn/col/14900 ...

  4. python3编写网络爬虫13-Ajax数据爬取

    一.Ajax数据爬取 1. 简介:Ajax 全称Asynchronous JavaScript and XML 异步的Javascript和XML. 它不是一门编程语言,而是利用JavaScript在 ...

  5. requests模块session处理cookie 与基于线程池的数据爬取

    引入 有些时候,我们在使用爬虫程序去爬取一些用户相关信息的数据(爬取张三“人人网”个人主页数据)时,如果使用之前requests模块常规操作时,往往达不到我们想要的目的,例如: #!/usr/bin/ ...

  6. 爬虫—Ajax数据爬取

    一.什么是Ajax 有时候我们使用浏览器查看页面正常显示的数据与使用requests抓取页面得到的数据不一致,这是因为requests获取的是原始的HTML文档,而浏览器中的页面是经过JavaScri ...

  7. scrapy 在爬取过程中抓取下载图片

    先说前提,我不推荐在sarapy爬取过程中使用scrapy自带的 ImagesPipeline 进行下载,是在是太耗时间了 最好是保存,在使用其他方法下载 我这个是在 https://blog.csd ...

  8. 用Python介绍了企业资产情况的数据爬取、分析与展示。

    前言 文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. 作者:张耀杰 PS:如有需要Python学习资料的小伙伴可以加点击下方链接自 ...

  9. Web Scraper——轻量数据爬取利器

    日常学习工作中,我们多多少少都会遇到一些数据爬取的需求,比如说写论文时要收集相关课题下的论文列表,运营活动时收集用户评价,竞品分析时收集友商数据. 当我们着手准备收集数据时,面对低效的复制黏贴工作,一 ...

随机推荐

  1. Samba服务部署

    Samba,是种用来让UNIX系列的操作系统与微软Windows操作系统的SMB/CIFS(Server Message Block/Common Internet File System)网络协议做 ...

  2. java中什么样的对象能够进入老年代

    1.大对象:所谓的大对象是指需要大量连续内存空间的java对象,最典型的大对象就是那种很长的字符串以及数组,大对象对虚拟机的内存分配就是坏消息,尤其是一些朝生夕灭的短命大对象,写程序时应避免. 2.长 ...

  3. Java虚拟机垃圾回收机制

    在Java虚拟机中,对象和数组的内存都是在堆中分配的,垃圾收集器主要回收的内存就是再堆内存中.如果在Java程序运行过程中,动态创建的对象或者数组没有及时得到回收,持续积累,最终堆内存就会被占满,导致 ...

  4. C# 获取并判断操作系统版本,解决Win10、 Windows Server 2012 R2 读取失败的方案

    Windows 8.1, Win10之后,通过GetVersion and GetVersionEx 方法获取WIndows操作系统版本号的功能需要添加manifest文件后才能查找到,不然的话会查找 ...

  5. POJ-1915 Knight Moves (BFS)

    Knight Moves Time Limit: 1000MS   Memory Limit: 30000K Total Submissions: 26952   Accepted: 12721 De ...

  6. wpf mvvm datagrid DataGridTemplateColumn的绑定无效的可能原因之一!

    昨天在mvvm wpf的开发中遇到一个问题,绑定不起作用,编辑阶段没问题也没有提示找不到对应的绑定,但是在运行之后却不起作用,查了很多资料,说法不一,有些是要删除datagrid的一行,直接绑定del ...

  7. 前端应该知道的Web Components

    前端组件化的痛点 在前端组件化横行的今天,确实极大的提升了开发效率.不过有一个问题不得不被重视,拟引入的这些html.css.js代码有可能对你的其他代码造成影响. 虽然我们可以通过命名空间.闭包等一 ...

  8. Linux环境下安装禅道

      1.下载禅道包 http://dl.cnezsoft.com/zentao/7.3/ZenTaoPMS.7.3.stable.zbox_64.tar.gz http://dl.cnezsoft.c ...

  9. MySql的安装与卸载

    首先到官网下载MySQL,点击安装 出现的页面如下,依次安装就好了,安装过程中需要修改的只有编码格式,需要填写的是数据库的密码,MySQL的默认用户名为root,默认端口为3306,端口号最好不要修改 ...

  10. VS2015 'utf-8' codec can't decode byte

    近日装好Visual Studio 2015 和PTVS准备练习Python开发,遇到一个棘手的问题,编码错误,提示如下: SyntaxError: (unicode error) 'utf-8' c ...