之前用php写过一个爬虫,同样是获取局域网的网站数据,这次我使用相同的网络环境,更低的电脑配置,使用ruby来再次爬虫,惊人的发现ruby使用自带的类库net/http爬取速度要远远超过php的curl_*函数。在循环爬取网页时,ruby的cpu占用率上达到了40-70%,而php仅仅使用了可怜的5-10%,目前还不知这其中的奥秘,理论上都是使用的单线程,差距这么大是解释器还是类库的差距呢?

不管了,以后再做性能测试,简单说一下过程。

安装两个包

gem install mysql2

gem install nokogiri

导入三个相当必要的包

require 'net/http'
require 'mysql2'
require 'nokogiri'
  1. net/http相当于php的curl函数,可以实现http请求,模拟浏览器一样的请求,发送给http服务器得到返回数据。
  2. mysql2,mysql连接,相当于java的jdbc,实现数据库读写
  3. nokogiri,这是一个html的dom解析类库,可以快速的解析html,获得节点下的属性,文本,子节点等

开始

完整代码

require 'net/http'
require 'mysql2'
require 'nokogiri' client = Mysql2::Client.new(:host => 'localhost',:username => 'root', :database => 'cslg', :encoding => 'utf8'); url = [] #示例网站罢了
url << "http://www.baidu.com"
sql = "" url.each do |u|
u = URI(u);
http = Net::HTTP.new(u.host,u.port);
headers = {
'Cookie'=>''#设置访问时的cookie,如果没有则不需要传入这个headers散列
} doc = http.get(u,headers) #发送请求 html = Nokogiri::HTML(doc.body) #html格式化 tds=html.xpath("//td") #找到所有的td标签 #过滤爬取得空或者废页面,根据实际返回页面的数据量,比如td标签过少的就是空的,不存在的
if tds.size < 79
next
end #数据库语句准备好
sql ="insert into teacher_base_info values(null"
tds.each_with_index do |td,i|
if i<74 && i>8
text = td.text.strip
if !(text.include?":")
sql+=",'#{text.to_s.addslashes}'"
elsif i==57 || i==66 || i==73
#拼接数据库语句
sql+=",'#{text.split(":")[1].to_s.addslashes}'"
end
end
end
sql+=")"
puts sql
client.query(sql) end

分析

首先连接到数据库:

client = Mysql2::Client.new(:host => 'localhost',:username => 'root', :password=>'' :database => 'xxx', :encoding => 'utf8');

主机,用户名,密码,数据库,编码等参数

需要的变量:

url = []
url << "http://www.baidu.com"
sql = ""

主要是地址,需要遍历的话则使用数组存储地址,然后是数据库语句存储字符串,后面用于拼接语句

对数组遍历,开始爬虫:

	u = URI(u);

    http = Net::HTTP.new(u.host,u.port);
headers = {
'Cookie'=>''#设置访问时的cookie,如果没有则不需要传入这个headers散列
} doc = http.get(u,headers)

对于网页的访问,需要提供的有:地址,端口,get参数(或者post参数),还有header中的信息

那么对于那些需要登录的网站,往往需要提供cookie来保持会话,那么headers变量可以存储散列,将键值对放入其中,就可以发送请求同时发送已经登录获得的cookie

cookie的值从开发者工具中获取,chrome F12

headers变量键值对遵循上面的规则,并且Ruby中使用“=>”定义散列中的元素

URI类,URI方法可以格式化字符串地址,成为uri对象

Net::HTTP.new()返回一个http对象,调用get方法可以访问地址,第一个是uri对象,第二个是header散列,提供header信息

如果我的地址中存在?x=xx&y=yy&z=zz这样的的get参数呢?

依然使用上述方法!将u=URI(地址包括get)取得的u传入http.get的第一个参数,get中的参数会被自动发送到http,并不会遗漏

解析html

爬下来之后,需要对html进行解析,ruby我采用了nokogiri,php可以使用“Simple HTML DOM”

使用nokogiri格式化取得的html文件:

html = Nokogiri::HTML(doc.body)   #html格式化

tds=html.xpath("//td")   #找到所有的td标签

xpath方法可以获得所有指定标签,前面要加“//”

tds将会是一个对象数组,可以用each或者each_with_index遍历

通过.text.to_s获取标签里的内容,就像js的innerText!

nokogiri使用说明

拼接sql语句

sql+=",'#{text.to_s.addslashes}'"
sql+=",'#{text.split(":")[1].to_s.addslashes}'"

将逗号放在前面会相对方便,不会有多余的“,”出现

addslashes是我自己写的方法,扩展了ruby的String类,主要是为了避免sql语句中出现单引号!这很重要,因为爬下来的数据经常会出现单引号,一般我转化为html的转义符,这是安全的

class String
def addslashes
self.gsub(/\'/,'&apos;')
end
end

最后:数据爬取简单,数据分析难!写入数据库要做很多的分析,如何解析html或者json,如何格式化字符串,得到想要的内容,如何建立合适的表,合适的字段,并且如何将数据一一对应的插入进去,这些比爬虫本身复杂多

Ruby爬虫header发送cookie,nokogiri解析html数据的更多相关文章

  1. header发送Cookie

    Cookie传达给客户端的原理 平时执行setcookie('key1', 'value1');这样的代码时,浏览器就会收到cookie并保存,但我们并不能从echo出去的内容中看到cookie内容 ...

  2. 爬虫header和cookie

    def on_start(self): self.crawl('http://bbs.byr.cn/board/Python', headers={'X-Requested-With': 'XMLHt ...

  3. postman5.0.2_0+postmanInterceptor0.2.22_0下载安装,可发送header头 cookie 参数

    Postman是chrome上一个非常好用的http客户端插件,可惜由于chrome安全的限制,发不出带cookie的请求.如果想要发送带cookie的请求,需要开启Interceptor 安装方法: ...

  4. ruby 爬虫爬取拉钩网职位信息,产生词云报告

    思路:1.获取拉勾网搜索到职位的页数 2.调用接口获取职位id 3.根据职位id访问页面,匹配出关键字 url访问采用unirest,由于拉钩反爬虫,短时间内频繁访问会被限制访问,所以没有采用多线程, ...

  5. 跨域问题,前端主动向后台发送cookie

    跨域是什么? 从一个域名的网页访问另一个域名的资源,就会出现跨域.只要协议.端口.域名有一个不同就会出现跨域 例如: 1.协议不同  http://www.baidu.com:80 和 https:/ ...

  6. Jmeter(一)http接口添加header和cookie --转载

    Jmeter(一)http接口添加header和cookie   HTTP信息头管理器在Jmeter的使用过程中起着很重要的作用,通常我们在通过Jmeter向服务器发送http请求(get或者post ...

  7. Header和Cookie相关内容

    相信很多同学都对HTTP的header和cookie,和session都有疑问,因为我们开发的时候一般都需要请求网络获取数据,有时候还需要带cookie或者带特殊的字段发起请求. 现在我们就来简单的了 ...

  8. 对EL自己以及对于param、header、cookie的相关应用的相关知识点的复习

    EL表达式语言是一种可以计算和输出的java对象的简单语言. 列入请求语句为下面的方式:request.setAttribute("username","zhangsan ...

  9. Android端接收和发送cookie

    流程: 首先android端使用HttpClient的方式发送HTTP请求,此时服务器创立cookie,并发送cookie给android端,android端再将cookie保存起来,在需要发送coo ...

随机推荐

  1. PAT Basic 1013 数素数 (20) [数学问题-素数]

    题目 令Pi表示第i个素数.现任给两个正整数M <= N <= 10^4,请输出PM到PN的所有素数. 输⼊格式: 输⼊在⼀⾏中给出M和N,其间以空格分隔. 输出格式: 输出从PM到PN的 ...

  2. 将iso mount 到nfs 目录问题

    最近有个需求,需要在多台系统安装程序,安装文件是iso 格式的,最普通的办法就是拷贝到其它系统,然后mount loop 到本地目录. 但是比较麻烦,而且当前已经有一个nfs 服务端了,于是想出一个办 ...

  3. Mysql 环境部署

    1.Window 1.1 下载软件: https://dev.mysql.com/downloads/mysql/ 依次点击上图 红色框中按钮 1.2 安装软件 1.2.1 解压软件 正常解压即可  ...

  4. luffy课程表的创建-支付宝API-购买服务器

    课程组件 <template> <div class="course"> <Header></Header> <div cla ...

  5. keras猫狗图像识别

    这里,我们介绍的是一个猫狗图像识别的一个任务.数据可以从kaggle网站上下载.其中包含了25000张毛和狗的图像(每个类别各12500张).在小样本中进行尝试 我们下面先尝试在一个小数据上进行训练, ...

  6. CaptchaCodeManager

    package org.linlinjava.litemall.wx.service; import org.linlinjava.litemall.wx.dto.CaptchaItem; impor ...

  7. RDD(六)——分区器

    RDD的分区器 Spark目前支持Hash分区和Range分区,用户也可以自定义分区,Hash分区为当前的默认分区,Spark中分区器直接决定了RDD中分区的个数.RDD中每条数据经过Shuffle过 ...

  8. 使用 try-with-resources 优雅关闭资源

    桂林SEO:我们知道,在 Java 编程过程中,如果打开了外部资源(文件.数据库连接.网络连接等.redis),我们必须在这些外部资源使用完毕后,手动关闭它们. 因为外部资源不由 JVM 管理,无法享 ...

  9. grep -v|grep -F

    cat a cat b #取b中不含1的行 b #b先和a比较,两者交集与b再取交集 b: b: b: b: b: b:22 $ grep -F a -f a b#a先和a比较,两者交集与b再取交集 ...

  10. JQ和JS的等价代码

    JQ与JS等价代码   选择器 //jquery var els = $(".el"); //原生方法 var els = document.querySelectorAll(&q ...