上一篇文章中,我们介绍了python爬虫利器——requests,并且拿HDU做了小测试。

这篇文章,我们来爬取一下自己AC的代码。

1 确定ac代码对应的页面

如下图所示,我们一般情况可以通过该顺序找到我们曾经AC过的代码

登陆hdu -> 点击自己的信息 -> 点击Last accepted submissions -> 在Code Len 处选择一个代码 -> 看到你AC的代码

我们可以看到,所有AC代码的页面都是

http://acm.hdu.edu.cn/viewcode.php?rid= + RunID

而这个RunID,正好在表格的最前面:

很自然我们可以想到,用正则表达式进行匹配。

2. 处理换页问题

很显然,,如果你AC的代码多了,必然会存在换页问题

不过我们可以在源代码中找到换页对应的URL,我们直接跳转,直到找不到为止。

3. 代码处理问题

html中有一些转义字符,使得我们不能直接将代码保存下来。

这时候我们需要用到 HTMLParser

code = html_parser.unescape(down_code)

4. 具体实现

#coding=utf-8
import re, HTMLParser, requests, getpass, os # 初始化会话对象 以及 cookies
s = requests.session()
cookies = dict(cookies_are='working') # 一些基础的url
host_url = 'http://acm.hdu.edu.cn'
post_url = 'http://acm.hdu.edu.cn/userloginex.php?action=login'
status_url = 'http://acm.hdu.edu.cn/status.php?user='
codebase_url = 'http://acm.hdu.edu.cn/viewcode.php?rid=' # 正则表达式的匹配串
runid_pat = re.compile(r'<tr.*?align=center ><td height=22px>(.*?)</td>.*?</tr>',re.S)
code_pat = re.compile(r'<textarea id=usercode style="display:none;text-align:left;">(.+?)</textarea>',re.S)
lan_pat = re.compile(r'Language : (.*?)&nbsp;&nbsp',re.S)
problem_pat = re.compile(r'Problem : <a href=.*?target=_blank>(.*?) .*?</a>',re.S)
nextpage_pat = re.compile(r'Prev Page</a><a style="margin-right:20px" href="(.*?)">Next Page ></a>',re.S) # 代码保存目录
if not os.path.exists('./ac_code'):
os.mkdir(r'./ac_code')
base_path = r'./ac_code/' # 登陆
def login(usr,psw):
data = {'username':usr,'userpass':psw,'login':'Sign In'}
r = s.post(post_url,data=data,cookies=cookies) # 代码语言判断
def lan_judge(language):
if language == 'G++':
suffix = '.cpp'
elif language == 'GCC':
suffix = '.c'
elif language == 'C++':
suffix = '.cpp'
elif language == 'C':
suffix = '.c'
elif language == 'Pascal':
suffix = '.pas'
elif language == 'Java':
suffix = '.java'
else:
suffix = '.cpp'
return suffix if __name__ == '__main__': usr = raw_input('input your username:')
psw = getpass.getpass('input your password:') login(usr,psw) # 用于处理html中的转义字符
html_parser = HTMLParser.HTMLParser() # 遍历每一页,并下载其代码
status_url = status_url + usr + '&status=5'
status_html = s.get(status_url,cookies=cookies).text
flag = True
print "Just go!"
while( flag ):
runid_list = runid_pat.findall(status_html) for id in runid_list:
code_url = codebase_url + id
down_html = s.get(code_url,cookies=cookies).text down_code = code_pat.search(down_html).group(1)
language = lan_pat.search(down_html).group(1)
problemid = problem_pat.search(down_html).group(1) suffix = lan_judge(language)
code = html_parser.unescape(down_code).encode('utf-8')
code = code.replace('\r\n','\n')
open( base_path + 'hdu' + problemid + '__' + id + suffix,"wb").write(code) nexturl = nextpage_pat.search(status_html)
if nexturl == None:
flag = False
else:
status_url = host_url + nexturl.group(1)
status_html = s.get(status_url,cookies=cookies).text
print "all of your ac codes were saved!"

5. 效果截图

  • ubuntu下测试:

  • windows下测试:

6. 写在后面

额。。很久很久很久没有刷题了。。。233333333,其实我是想告诉你一个事实

这里就可以下载AC的代码,,,哈哈哈。so,这个爬虫仅仅用来练习就好。

python爬虫学习(7) —— 爬取你的AC代码的更多相关文章

  1. Python爬虫学习(二) ——————爬取前程无忧招聘信息并写入excel

    作为一名Pythoner,相信大家对Python的就业前景或多或少会有一些关注.索性我们就写一个爬虫去获取一些我们需要的信息,今天我们要爬取的是前程无忧!说干就干!进入到前程无忧的官网,输入关键字&q ...

  2. python爬虫学习之爬取全国各省市县级城市邮政编码

    实例需求:运用python语言在http://www.ip138.com/post/网站爬取全国各个省市县级城市的邮政编码,并且保存在excel文件中 实例环境:python3.7 requests库 ...

  3. 【转载】教你分分钟学会用python爬虫框架Scrapy爬取心目中的女神

    原文:教你分分钟学会用python爬虫框架Scrapy爬取心目中的女神 本博文将带领你从入门到精通爬虫框架Scrapy,最终具备爬取任何网页的数据的能力.本文以校花网为例进行爬取,校花网:http:/ ...

  4. Python爬虫实例:爬取B站《工作细胞》短评——异步加载信息的爬取

    很多网页的信息都是通过异步加载的,本文就举例讨论下此类网页的抓取. <工作细胞>最近比较火,bilibili 上目前的短评已经有17000多条. 先看分析下页面 右边 li 标签中的就是短 ...

  5. Python爬虫实例:爬取猫眼电影——破解字体反爬

    字体反爬 字体反爬也就是自定义字体反爬,通过调用自定义的字体文件来渲染网页中的文字,而网页中的文字不再是文字,而是相应的字体编码,通过复制或者简单的采集是无法采集到编码后的文字内容的. 现在貌似不少网 ...

  6. Python爬虫实例:爬取豆瓣Top250

    入门第一个爬虫一般都是爬这个,实在是太简单.用了 requests 和 bs4 库. 1.检查网页元素,提取所需要的信息并保存.这个用 bs4 就可以,前面的文章中已经有详细的用法阐述. 2.找到下一 ...

  7. python爬虫-基础入门-爬取整个网站《3》

    python爬虫-基础入门-爬取整个网站<3> 描述: 前两章粗略的讲述了python2.python3爬取整个网站,这章节简单的记录一下python2.python3的区别 python ...

  8. python爬虫-基础入门-爬取整个网站《2》

    python爬虫-基础入门-爬取整个网站<2> 描述: 开场白已在<python爬虫-基础入门-爬取整个网站<1>>中描述过了,这里不在描述,只附上 python3 ...

  9. python爬虫-基础入门-爬取整个网站《1》

    python爬虫-基础入门-爬取整个网站<1> 描述: 使用环境:python2.7.15 ,开发工具:pycharm,现爬取一个网站页面(http://www.baidu.com)所有数 ...

随机推荐

  1. 【Win 10应用开发】响应系统回退键的导航事件

    按例,老周今天要讲一个故事,这个故事之前老周在微博上分享过.大伙知道在8.1的时候,有一个扩展类库——NotificationExtensions,可以真TMD轻松生成通知XML模板,其实,这个类库也 ...

  2. 构建ASP.NET MVC4+EF5+EasyUI+Unity2.x注入的后台管理系统(3)-漂亮系统登陆界面

    系列目录 前言 本文于2016-10修改 这次的代码是基于上一节的代码集成的,素材都在第二节里头 本次添加登录页面的控制器即可 实现 添加Account的Index视图: @{ Layout = nu ...

  3. zeptojs-跑马灯效果

    去年的时候了解学习了一下zeptojs,因为是移动js框架嘛还是必须要学习下的,里面封装的方法和jquery很类似,但是底层原理当然是不同的,这里展示的就是一个跑马灯效果,直接上代码和效果图: 样式不 ...

  4. 挑子学习笔记:BIRCH层次聚类

    转载请标明出处:http://www.cnblogs.com/tiaozistudy/p/6129425.html 本文是“挑子”在学习BIRCH算法过程中的笔记摘录,文中不乏一些个人理解,不当之处望 ...

  5. WebGIS中基于控制点库进行SHP数据坐标转换的一种查询优化策略

    文章版权由作者李晓晖和博客园共有,若转载请于明显处标明出处:http://www.cnblogs.com/naaoveGIS/ 1.前言 目前项目中基于控制点库进行SHP数据的坐标转换,流程大致为:遍 ...

  6. 账号密码管理系统Access版本

    哈哈,花了我整整五天时间,账号密码管理系统软件终于成功编写完成了.由于我的各大论坛的账号密码特别多,记性又不好.所以一直以来都想要这么一个软件的,但是以前学习的都是面向过程的编程语言,一直无法实现这个 ...

  7. ASP.NET WebApi 文档Swagger深度优化

    本文版权归博客园和作者吴双本人共同所有,转载和爬虫请注明博客园蜗牛原文地址,cnblogs.com/tdws   写在前面 请原谅我这个标题党,写到了第100篇随笔,说是深度优化,其实也并没有什么深度 ...

  8. 数据结构:堆排序 (python版) 小顶堆实现从大到小排序 | 大顶堆实现从小到大排序

    #!/usr/bin/env python # -*- coding:utf-8 -*- ''' Author: Minion-Xu 小堆序实现从大到小排序,大堆序实现从小到大排序 重点的地方:小堆序 ...

  9. GJM : Unity3D HIAR 目录导航

    感谢您的阅读.喜欢的.有用的就请大哥大嫂们高抬贵手"推荐一下"吧!你的精神支持是博主强大的写作动力以及转载收藏动力.欢迎转载! 版权声明:本文原创发表于 [请点击连接前往] ,未经 ...

  10. RPC是什么?科普一下

    RPC概念及分类 RPC全称为Remote Procedure Call,翻译过来为“远程过程调用”.目前,主流的平台中都支持各种远程调用技术,以满足分布式系统架构中不同的系统之间的远程通信和相互调用 ...