http://blog.csdn.net/supercooly/article/details/51003921…
#coding=utf-8 # 参考文章: # 1. python实现简单爬虫功能 # http://www.cnblogs.com/fnng/p/3576154.html # 2. Python 2.7 时间和日期模块常用的例子 # http://www.linuxidc.com/Linux/2015-06/118458.htm # 3. Python open读写文件实现脚本 # http://www.jb51.net/article/15709.htm # 4. python re 模块…
1.基于window环境,使用的工具是 Anaconda 下载地址 https://www.anaconda.com/download/ 2.所使用的包 BeautifulSoup,用来解析html代码 3.编译成exe程序,需要包 PyInstaller 下载地址:http://www.pyinstaller.org/downloads.html 4.安装PyInstaller 5.生成exe文件 在anaconda prompt 中运行  pyinstaller -F runData.py…
定向爬取极客学院视频,原本只有年费VIP只能下载,经过分析,只要找个免费体验VIP即可爬取所有视频 涉及的基本技术:python xpath 正则 com+ 通过python调用迅雷从组件,实现自动创建文件夹和自动添加批量下载任务,前提要成功安装迅雷和迅雷组件 思路:path路径爬取所有标签->搜索页面所有该课程分类->课程页面获取课程明细->正则分析视频地址 极客学院的一直在改进,可能需要自己改进 import requests from lxml import etree impor…
python scrapy版 极客学院爬虫V2 1 基本技术 使用scrapy 2 这个爬虫的难点是 Request中的headers和cookies 尝试过好多次才成功(模拟登录),否则只能抓免费课程 3文件树如下 │ jike.json 存储json文件│ run.py 运行爬虫└─jkscrapy │ items.py 设置字段 │ pipelines.py 处理字段 │ settings.py 基本设置 │ init.py └─spiders jkspiders.py 爬虫 jkspid…
背景 本文主要是为了完成极客学院课程<Python 单线程爬虫>中讲师布置的实战作业. 开发环境 操作系统:windows 10 Python :Python 2.7 IDE:PyCharm 4.5.3 安装requests 在CMD命令提示窗口敲以下一行命令即可安装. pip install requests 实现代码 # coding=utf-8 __author__ = 'scaleworld' import requests import re import sys reload(sy…
最近在极客学院获得体验会员3个月,然后就去上面看了看,感觉课程讲的还不错.整好最近学习Android,然后去上面找点视频看看.发现只有使用RMB买的会员才能在上面下载视频.抱着试一试的态度,去看他的网页源码,不巧发现有视频地址链接.然后想起来jsoup提取网页元素挺方便的,没事干就写了一个demo.     jsoup 是一款Java 的HTML解析器,可直接解析某个URL地址.HTML文本内容.它提供了一套非常省力的API,可通过DOM,CSS以及类似于jQuery的操作方法来取出和操作数据.…
来自极客学院 Apache Maven 是一套软件工程管理和整合工具.基于工程对象模型(POM)的概念,通过一个中央信息管理模块,Maven 能够管理项目的构建.报告和文档. Maven - 概述 Maven 是什么? Maven 是一个项目管理和整合工具.Maven 为开发者提供了一套完整的构建生命周期框架.开发团队几乎不用花多少时间就能够自动完成工程的基础构建配置,因为 Maven 使用了一个标准的目录结构和一个默认的构建生命周期. 在有多个开发团队环境的情况下,Maven 能够在很短的时间…
OJ升级,代码可能会丢失. 所以要事先备份. 一開始傻傻的复制粘贴, 后来实在不能忍, 得益于大潇的启示和聪神的原始代码, 网页爬虫走起! 已经有段时间没看Python, 这次网页爬虫的原始代码是 python2.7版本号, 试了一下改动到3.0版本号, 要做非常多包的更替,感觉比較烦,所以索性就在这个2.7版本号上完好了. 首先欣赏一下原始代码,我给加了一些凝视: # -*- coding: cp936 -*- import urllib2 import urllib import re im…
在Python简单网络爬虫实战—下载论文名称,作者信息(上)中,学会了get到网页内容以及在谷歌浏览器找到了需要提取的内容的数据结构,接下来记录我是如何找到所有author和title的 1.从soup中get到data类 soup中提供了select方法来筛选所需的类.该方法使用方法如下: articlename = soup.select('title') 该语句即将soup中所有的title元素放到articlename中.select也有其他用法 articlename = soup.s…