1. 定向爬取极客学院视频,原本只有年费VIP只能下载,经过分析,只要找个免费体验VIP即可爬取所有视频
  2. 涉及的基本技术:python xpath 正则 com+
  3. 通过python调用迅雷从组件,实现自动创建文件夹和自动添加批量下载任务,前提要成功安装迅雷和迅雷组件
  4. 思路:path路径爬取所有标签-》搜索页面所有该课程分类-》课程页面获取课程明细-》正则分析视频地址
  5. 极客学院的一直在改进,可能需要自己改进

import requests from lxml import etree import re import sys, os, glob,time import scrapy

reload(sys) sys.setdefaultencoding("utf-8")

#baesurl = "http://www.jikexueyuan.com/search/s/q_"
#base_path = "f:/jike/"

#heanders Cookie需要自己抓取,否则只能抓取到免费课程

headers = { "Host": "www.jikexueyuan.com", "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:39.0) Gecko/20100101 Firefox/39.0", "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,/;q=0.8", "Accept-Language": "zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3", "Accept-Encoding": "gzip, deflate", "Cookie": "ga=GA1.2.1700377703.1438173034; Hmlvtf3c68d41bda15331608595c98e9c3915=1438173034; MECHATLVTime=1438179151498; MECHATCKID=cookieVal=006600143817303272961295; statssid=1438985023415; statuuid=1438173038588973692017; connect.sid=s%3AWt8IWWxkVZ6zlhop7HpbG-vtXqtwIAs.QC1tYy4qV1bHOMDN0UTUfScLKFncl4NY5zAk1SS17Kw; QINGCLOUDELB=37e16e60f0cd051b754b0acf9bdfd4b5d562b81daa2a899c46d3a1e304c7eb2b|VbjfT|VbjfT; Hmlpvtf3c68d41bda15331608595c98e9c3915=1438179151; statisNew=0; statfromWebUrl=; gat=1; uname=jike76; uid=2992598; code=SMapFI; authcode=d572TzIvHFXNIVNXcNf4vI5lv1tQlyEknAG4m0mDQmvMRPa4VhDOtJXOSfO%2BeVFVPzra8M1sEkEzxqLX9qRgS6nWhd5VMobbDpeqvJ726i54TqMoDo81P4OlhQ", "Connection": "keep-alive" }

class jikeautodown: basepath = "" baseurl = "" coursetag = "" courseid = ""

def __init__(self, base_path, base_url):
if base_path and base_url:
self.base_path = base_path
self.base_url = base_url
self.get_tags()
else:
print("base_path and base_url is all must needed!")
return def run(self):
self.get_tags()

get_tags 获取所有便签

def get_tags(self):
url = "http://www.jikexueyuan.com/path/"
tag_html = requests.get(url).text.decode("utf-8").encode("GB18030")
tag_etree = etree.HTML(tag_html)
tag_lists = [str(tag).rstrip("/")[str(tag).rstrip("/").rindex("/") + 1:] for tag in
tag_etree.xpath('/html/body/div[1]/div[4]/div/div[3]/div/a/@href') if tag]
if tag_lists:
for tag in tag_lists:
print(tag)
self.course_tag = tag
self.get_total_page(tag)

get_tags 获取课程所有页面 课程分页是js生成不好直接抓取,所以就暴力了

def get_total_page(self, tag):
if tag:
for page in range(1, 50):
page_url = self.base_url + tag + "?pageNum=%d" % page
# print(page_url)
page_html = requests.get(page_url, headers=headers).text.decode("utf-8").encode("GB18030")
# print(page_html)
no_userMenu = re.search(r"userMenu", page_html, re.S)
if no_userMenu is None:
print("please check the cookies")
return
no_search = re.search(r"no-search", page_html, re.S)
if no_search:
print("the tag ;%s,%d is biggest page" % (tag, page - 1))
# return page_url_lists
break
else:
# page_url_lists.append(page_url)
self.get_course_pages(page_url)
# print(page_url)

getcoursepages 获取课程详细页面

def get_course_pages(self, tag_url):
if tag_url:
print("the tag_url:%s " % tag_url)
course_page_lists = self.get_xpath_lists(tag_url, headers,
'//*[@id="changeid"]/ul/li/div/div[2]/h5/a/@href')
if course_page_lists:
for course_page_url in course_page_lists:
self.get_down_urls(course_page_url)

getdownurls通过正则获取视频下载地址

def get_down_urls(self, course_page_url):
if course_page_url:
self.course_id = course_page_url[course_page_url.rindex("/") + 1:course_page_url.rindex(".")]
# print(course_page_url)
print(" course_id:%s %s" % (self.course_id, course_page_url))
course_down_lists = self.get_xpath_lists(course_page_url, headers,
'//*[@class="video-list"]/div[2]/ul/li/div/h2/a/@href')
if course_down_lists:
for course_down_url in course_down_lists:
course_down_html = requests.get(course_down_url, headers=headers).text.decode("utf-8").encode(
"GB18030")
course_down = re.findall(r'source src="(.*?)"', course_down_html, re.S)
if course_down:
print(" %s" % course_down[0])
if self.addTasktoXunlei(course_down[0]):
# print(" %s is add success!" % course_down[0])
print(" is add success!")
time.sleep(5)

getfilelists创建文件夹

def get_file_lists(self, course_tag, course_id):
course_path = ""
if self.base_path and os.path.exists(self.base_path) == False:
try:
os.mkdir(self.base_path)
except Exception:
print("error :%s" % Exception.message)
return
if course_tag and os.path.exists(self.base_path + course_tag) == False:
try:
os.mkdir(self.base_path + course_tag)
# print("%s dir is create success!" % (self.base_path + course_tag))
except Exception:
print("dir is create error,the error is %s" % Exception.message) tmp = self.base_path + course_tag + "\\" + str(course_id)
if course_id and os.path.exists(tmp) == False:
try:
os.mkdir(tmp)
course_path = tmp
# print("%s dir is create success!" % tmp)
except Exception:
print("dir is create error,the error is %s" % Exception.message)
return
else:
course_path = tmp
return course_path

getxpathlists 专门解析xpath,不用每次都写

def get_xpath_lists(self, url, headers, xpath):
try:
html = requests.get(url, headers=headers).text.decode("utf-8").encode("GB18030")
tree = etree.HTML(html)
lists = [str(plist) for plist in tree.xpath(xpath) if plist]
except Exception:
print("get xpath list is error is :%s" % Exception.message)
return
return lists

addTasktoXunlei 添加迅雷任,必须安装迅雷,还需要对迅雷设置默认不提醒,否则就需要手动点击确定了

def addTasktoXunlei(self, down_url):
flag = False
from win32com.client import Dispatch
o = Dispatch("ThunderAgent.Agent.1")
# http: // cv3.jikexueyuan.com / 201508011650 / a396d5f2b9a19e8438da3ea888e4cc73 / python / course_776 / 01 / video / c776b_01_h264_sd_960_540.mp4
if down_url:
course_infos = str(down_url).replace(" ", "").replace("http://", "").split("/")
course_path = self.get_file_lists(self.course_tag, self.course_id)
try:
o.AddTask(down_url, course_infos[len(course_infos)-1], course_path, "", "http://cv3.jikexueyuan.com", 1, 0, 5)
o.CommitTasks()
flag = True
except Exception:
print(Exception.message)
print(" AddTask is fail!")
return flag if __name__ == "__main__":
myjike = jike_auto_down("f:\\jike\\", "http://www.jikexueyuan.com/search/s/q_")
myjike.run()

python极客学院爬虫V1的更多相关文章

  1. python scrapy版 极客学院爬虫V2

    python scrapy版 极客学院爬虫V2 1 基本技术 使用scrapy 2 这个爬虫的难点是 Request中的headers和cookies 尝试过好多次才成功(模拟登录),否则只能抓免费课 ...

  2. 基于requests实现极客学院课程爬虫

    背景 本文主要是为了完成极客学院课程<Python 单线程爬虫>中讲师布置的实战作业. 开发环境 操作系统:windows 10 Python :Python 2.7 IDE:PyChar ...

  3. 【极客学院出品】Cocos2d-X系列课程之九-BOX2D物理引擎

    Cocos2d-x 是时下最热门的手游引擎,在国内和国外手机游戏开发使用的份额各自是70%和25%,在App Store的top10中,有7个是用它开发的. 本节课程为Cocos2d-x系列课程之九, ...

  4. scrapy爬取极客学院全部课程

    # -*- coding: utf-8 -*- # scrapy爬取极客学院全部课程 import scrapy from pyquery import PyQuery as pq from jike ...

  5. 国内第一本micropython的书出版《机器人Python极客编程入门与实战》

    第一本micropython的书<机器人Python极客编程入门与实战>. 购买地址:https://item.taobao.com/item.htm?spm=2013.1.w4018-1 ...

  6. 【极客学院-idea教程】

    极客学院idea教程: http://whudoc.qiniudn.com/2016/IntelliJ-IDEA-Tutorial/index.html

  7. maven介绍 极客学院

    来自极客学院 Apache Maven 是一套软件工程管理和整合工具.基于工程对象模型(POM)的概念,通过一个中央信息管理模块,Maven 能够管理项目的构建.报告和文档. Maven - 概述 M ...

  8. 极客学院年VIP卡原价260的F码,200出售

    F码是中国最大的IT职业在线教育平台——极客学院推出的VIP时间兑换码,凭此可在极客学院官网兑换年VIP,畅享平台上所有IT技术课程. 购买请点击 http://www.bejson.com/othe ...

  9. 极客学院免费VIP

    [手快福利]用我的链接注册极客学院,你我都能免费得30天VIP!6500+编程开发视频教程随便学,还能下载资料和源码 http://e.jikexueyuan.com/invite/index.htm ...

随机推荐

  1. iOS取得AddressBook联系人信息

    新建一个CContact类用于存放联系人信息,下面是该类的代码: CContact.h代码: 01 #import <Foundation/Foundation.h> 02   03   ...

  2. Scalaz(2)- 基础篇:随意多态-typeclass, ad-hoc polymorphism

    scalaz功能基本上由以下三部分组成: 1.新的数据类型,如:Validation, NonEmptyList ... 2.标准scala类型的延伸类型,如:OptionOps, ListOps . ...

  3. C语言的关键字,运算符,标识符

    关键字 数据类型修饰相关 auto按照自动的方式进行变量的存储 const定义常量或常参数 extern声明外部变量或函数 register指定变量的存储类型是寄存器变量 static指定变量的存储类 ...

  4. 【Effective Java】7、优先考虑泛型方法

    package cn.xf.cp.ch02.item27; import java.util.HashSet; import java.util.Set; public class Union { / ...

  5. Discuz X2任务开发

    简单描述 由于公司的需求要在系统中添加任务管理,用户通过完成任务而获得一定的奖励,因此其设计过程需要考虑到: 1.由于任务都是在系统中相关功能块处做一些相关事情,比如说在做题系统中完成指定的试题[1] ...

  6. 高性能 Windows Socket 组件 HP-Socket v2.2.3 正式发布

    HP-Socket 是一套通用的高性能 Windows Socket 组件包,包含服务端组件(IOCP 模型)和客户端组件(Event Select 模型),广泛适用于 Windows 平台的 TCP ...

  7. windows 80 端口占用

    1. cmd 2. regidit 3. 注册表 KEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\HTTP'右边有一个'start'的DWORD ...

  8. 一级缓存、二级缓存、延迟加载、hibernate session 域 pojo三种状态

    1.一级缓存(session缓存 ).二级缓存      意义:提高hibernate查询效率.    缺点:可能会因并发,产生数据不一致.      本质:基于session 的缓存,利用hiber ...

  9. iframe父页面获取子页面的高度

    最近做项目中用到了iframe,子页面更改父页面的高度,经过九九八十一难,找到了解决的办法. $(window).load(function() {  var h=$(document).height ...

  10. 全信号高清DVI编码器|上海视涛科技

    高清DVI编码器(E700)简介 高清DVI编码器是上海视涛科技出品的高性能全信号DVI编码产品.该DVI编码器是上海视涛科技完全自主研发,并适用于DVI信号的编码采集及网络传输的专用硬件设备.可兼容 ...