今天闲的无聊,爬取了一个网站,百度百聘,仅供学习参考

直接上代码:

#-*-coding:utf-8-*-
from common.contest import * def spider(): headers = { "Host":"zhaopin.baidu.com",
"Connection":"keep-alive",
"User-Agent":"Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.91 Safari/537.36",
"Accept":"*/*",
"Referer":"http://zhaopin.baidu.com/qz?query=%E7%88%AC%E8%99%AB%E5%B7%A5%E7%A8%8B%E5%B8%88",
"Accept-Encoding":"gzip, deflate",
"Accept-Language":"zh-CN,zh;q=0.8",
"Cookie":"BAIDUID=F9ED0B117C16BC97A29D64DD28F4CBB9:FG=1; BIDUPSID=F9ED0B117C16BC97A29D64DD28F4CBB9; PSTM=1532340289; locale=zh;
      Hm_lvt_c676f95eebbd4fa8a59418f48090ac4d=1532922582; URLTITLESALARY=%20; Hm_lvt_80a630f2b5c230ad2a5d3f1356e18706=1532938867;
        Hm_lpvt_80a630f2b5c230ad2a5d3f1356e18706=1532941545; td_cookie=966486977", } url = 'http://zhaopin.baidu.com/api/qzasync'
for page in range(0,11):
print "正在爬取的页数是:",str(page)
data = { "query":"爬虫工程师",
"city":"%E5%8C%97%E4%BA%AC",
"pcmod":"",
"pn":str(page),
"rn":"",
} result = session.get(url=url,params=data,headers=headers).json()
result = result['data']['disp_data']
for ii in result: try:
ori_size = ii['ori_size']
except:
ori_size = "" ori_city = ii['ori_city']
ori_type = ii['ori_type']
StdStl = ii['StdStl']
sourcelink = ii['sourcelink']
_version = ii['_version']
haswapurl = ii['haswapurl']
education = ii['education'] try:
size = ii['size']
except:
size = "" format_date = ii['format_date']
detailidx = ii['detailidx']
title = ii['title']
ori_employertype = ii['ori_employertype']
requirements = ii['requirements']
company_id = ii['company_id']
ori_salary = ii['ori_salary']
source = ii['source']
location = ii['location']
provider = ii['provider']
employertype = ii['employertype']
lastmod = ii['lastmod']
_update_time = ii['_update_time']
ori_education = ii['ori_education'] try:
companyaddress = ii['companyaddress']
except:
companyaddress = "" company = ii['company']
try:
commonname = ii['commonname']
except:
commonname = "" ori_welfare = ii['ori_welfare']
ori_experience = ii['ori_experience'] ori_welfare = str(ori_welfare).decode('unicode_escape') print "ori_salary",ori_salary
print "ori_size",ori_size
print "ori_city",ori_city
print "ori_type",ori_type
print "StdStl",StdStl
print "sourcelink",sourcelink
print "_version",_version
print "haswapurl",haswapurl
print "education",education
print "id",id
print "size",size
print "format_date",format_date
print "detailidx",detailidx
print "title",title
print "ori_employertype",ori_employertype
print "requirements",requirements
print "company_id",company_id
print "ori_salary",ori_salary
print "ori_salary",ori_salary
print "source",source
print "employertype",employertype
print "location",location
print "provider",provider
print "employertype",employertype
print "lastmod",lastmod
print "_update_time",_update_time
print "ori_education",ori_education
print "companyaddress",companyaddress
print "company",company
print "commonname",commonname
print "ori_welfare",ori_welfare
print "ori_experience",ori_experience time.sleep(5) spider()

这个网址没有什么难度,只需要简单的请求一下请求接口就能得到数据,注意请求参数 city 需要  URL编码一下就可以,不会的同学请自行百度     URL编码  就可以了

Python 爬虫实例(15) 爬取 百度百聘(微信公众号)的更多相关文章

  1. Python爬虫实战之爬取百度贴吧帖子

    大家好,上次我们实验了爬取了糗事百科的段子,那么这次我们来尝试一下爬取百度贴吧的帖子.与上一篇不同的是,这次我们需要用到文件的相关操作. 本篇目标 对百度贴吧的任意帖子进行抓取 指定是否只抓取楼主发帖 ...

  2. Python爬虫实例:爬取B站《工作细胞》短评——异步加载信息的爬取

    很多网页的信息都是通过异步加载的,本文就举例讨论下此类网页的抓取. <工作细胞>最近比较火,bilibili 上目前的短评已经有17000多条. 先看分析下页面 右边 li 标签中的就是短 ...

  3. Python爬虫实例:爬取猫眼电影——破解字体反爬

    字体反爬 字体反爬也就是自定义字体反爬,通过调用自定义的字体文件来渲染网页中的文字,而网页中的文字不再是文字,而是相应的字体编码,通过复制或者简单的采集是无法采集到编码后的文字内容的. 现在貌似不少网 ...

  4. Python爬虫实例:爬取豆瓣Top250

    入门第一个爬虫一般都是爬这个,实在是太简单.用了 requests 和 bs4 库. 1.检查网页元素,提取所需要的信息并保存.这个用 bs4 就可以,前面的文章中已经有详细的用法阐述. 2.找到下一 ...

  5. [Python爬虫] 之十五:Selenium +phantomjs根据微信公众号抓取微信文章

    借助搜索微信搜索引擎进行抓取 抓取过程 1.首先在搜狗的微信搜索页面测试一下,这样能够让我们的思路更加清晰 在搜索引擎上使用微信公众号英文名进行“搜公众号”操作(因为公众号英文名是公众号唯一的,而中文 ...

  6. Python 爬虫练习: 爬取百度贴吧中的图片

    背景:最近开始看一些Python爬虫相关的知识,就在网上找了一些简单已与练习的一些爬虫脚本 实现功能:1,读取用户想要爬取的贴吧 2,读取用户先要爬取某个贴吧的页数范围 3,爬取每个贴吧中用户输入的页 ...

  7. 芝麻HTTP:Python爬虫实战之爬取百度贴吧帖子

    本篇目标 1.对百度贴吧的任意帖子进行抓取 2.指定是否只抓取楼主发帖内容 3.将抓取到的内容分析并保存到文件 1.URL格式的确定 首先,我们先观察一下百度贴吧的任意一个帖子. 比如:http:// ...

  8. 【python爬虫】 之 爬取百度首页

    刚开始学习爬虫,照着教程手打了一遍,还是蛮有成就感的.使用版本:python2.7 注意:python2的默认编码是ASCII编码而python3默认编码是utf-8 import urllib2 u ...

  9. Python爬虫教程-17-ajax爬取实例(豆瓣电影)

    Python爬虫教程-17-ajax爬取实例(豆瓣电影) ajax: 简单的说,就是一段js代码,通过这段代码,可以让页面发送异步的请求,或者向服务器发送一个东西,即和服务器进行交互 对于ajax: ...

随机推荐

  1. Iperf是一个网络性能测试工具

    http://blog.163.com/hlz_2599/blog/static/142378474201341341339314/ Iperf是一个网络性能测试工具.Iperf可以测试TCP和UDP ...

  2. 如何解析android访问webservice返回的SoapObject数据(可用)

    怎么解析android访问webservice返回的SoapObject数据 本帖最后由 kkDragon123 于 2013-03-26 15:50:07 编辑 我的数据如下:mingdanResp ...

  3. Java多线程之线程的状态以及线程间协作通信导致的线程状态转换

      转载请注明原文地址:http://www.cnblogs.com/ygj0930/p/6561589.html  一:线程的状态以及变化图 Java中线程中状态可分为五种:New(新建状态),Ru ...

  4. case when then用法

    --简单Case函数 CASE sex WHEN ' THEN '男' WHEN ' THEN '女' ELSE '其他' END //案例 select cid as 渠道编号, ' then '小 ...

  5. RHEL7-openldap安装配置三(客户端自动挂载配置)

    前两篇文章我们配置好了LDAP服务端和LDAP客户端.这篇文章将讲述从LDAP客户机服务器上挂载NFS服务器上共享的目录. 1.LDAP服务器上NFS共享配置 1.1 NFS服务也可以单独搭建在另外一 ...

  6. IntelliJ IDEA遇到Unable to parse template “Class”错误

    在新安装的Ubuntu16下运行IntelliJ IDEA时, 遇到一个错误,在新建class的时候,提示Unable to parse template “Class” 通过查看 Settings ...

  7. 【TP3.2】详解_initialize() 和 __construct() 的区别和联系

    1.假设 一个AdminController.class.php 集成至 \Think\Controller 类, 我们来看看Controller.class.php的构造方法源码: /** * 架构 ...

  8. 【原创视频教程】SqlServer2008视频教程[共9集]

    这些视频都是13年-14年两年里面录制的,怀着一份创造之心, 可能说得不对,或者说得肤浅,望见谅....也请指正... 谢谢你的支持.. 更多资料:北盟网 www.bamn.cn ---------- ...

  9. hibernate的hql语句不支持 count(case...when ....else..)?

    查看帖子:http://www.iteye.com/problems/4499 第一次这么写, 不行, 关键就是: 同是聚集函数,sum 就OK, 而 count 就不行...........后来还是 ...

  10. linux shell 脚本攻略学习17--正则表达式入门

    正则表达式(也称为“regex”或“regexp”)是一种用来描述文本模式的特殊语法.在 Linux 系统上,正则表达式通常被用来查找文本的模式,以及对文本流执行“搜索-替换”操作以及其它功能. 正则 ...