import requests
from bs4 import BeautifulSoup
import bs4 def get_html_text(url):
try:
#kv = {'user-agent':'Mozilla/5.0'}
r = requests.get(url, timeout = 30)
r.raise_for_status()
r.encoding = r.apparent_encoding
return r.text
except:
return "crawl error" def fill_info(ulist, html):
soup = BeautifulSoup(html, 'html.parser')
for tr in soup.find('tbody').children:
if isinstance(tr, bs4.element.Tag):
tds = tr.find_all('td')
ulist.append([tds[0].string, tds[1].string, tds[2].string]) def print_info(ulist, num):
for i in range(num):
u = ulist[i]
uu = ""
uu += u[0] + "\t\t\t\t"
uu += u[1] + "\t\t\t\t"
uu += u[2]
print(uu) if __name__ == "__main__":
uinfo = []
url = "http://www.zuihaodaxue.com/zuihaodaxuepaiming2019.html"
html = get_html_text(url)
fill_info(uinfo, html)
print_info(uinfo, 104)
1                清华大学                北京
2 北京大学 北京
3 浙江大学 浙江
4 上海交通大学 上海
5 复旦大学 上海
6 中国科学技术大学 安徽
7 华中科技大学 湖北
7 南京大学 江苏
9 中山大学 广东
10 哈尔滨工业大学 黑龙江
11 北京航空航天大学 北京
12 武汉大学 湖北
13 同济大学 上海
14 西安交通大学 陕西
15 四川大学 四川
16 北京理工大学 北京
17 东南大学 江苏
18 南开大学 天津
19 天津大学 天津
20 华南理工大学 广东
21 中南大学 湖南
22 北京师范大学 北京
23 山东大学 山东
23 厦门大学 福建
25 吉林大学 吉林
26 大连理工大学 辽宁
27 电子科技大学 四川
28 湖南大学 湖南
29 苏州大学 江苏
30 西北工业大学 陕西
31 中国人民大学 北京
32 华东师范大学 上海
33 南京航空航天大学 江苏
34 对外经济贸易大学 北京
35 南方科技大学 广东
36 华东理工大学 上海
37 重庆大学 重庆
38 南京理工大学 江苏
39 北京科技大学 北京
40 东北大学 辽宁
41 上海大学 上海
42 北京邮电大学 北京
42 上海财经大学 上海
42 中国农业大学 北京
45 武汉理工大学 湖北
46 北京交通大学 北京
46 华中师范大学 湖北
48 西安电子科技大学 陕西
49 中央财经大学 北京
50 北京化工大学 北京
51 暨南大学 广东
52 东华大学 上海
52 兰州大学 甘肃
52 中南财经政法大学 湖北
55 宁波诺丁汉大学 浙江
56 哈尔滨工程大学 黑龙江
56 华北电力大学 北京
58 深圳大学 广东
59 江南大学 江苏
59 南京师范大学 江苏
61 北京工业大学 北京
62 福州大学 福建
63 北京外国语大学 北京
63 北京语言大学 北京
63 中国地质大学(武汉) 湖北
66 西南交通大学 四川
67 华中农业大学 湖北
67 中国海洋大学 山东
69 南京农业大学 江苏
70 上海外国语大学 上海
71 中国矿业大学 江苏
72 中国地质大学(北京) 北京
73 东北财经大学 辽宁
73 西南财经大学 四川
73 西南大学 重庆
76 东北师范大学 吉林
76 南京邮电大学 江苏
76 中国政法大学 北京
79 河海大学 江苏
80 南京信息工程大学 江苏
81 西北农林科技大学 陕西
82 中国石油大学(华东) 山东
83 合肥工业大学 安徽
84 陕西师范大学 陕西
85 华南师范大学 广东
85 江苏大学 江苏
87 南京工业大学 江苏
87 中国石油大学(北京) 北京
89 西北大学 陕西
89 浙江工业大学 浙江
91 北京林业大学 北京
91 湖南师范大学 湖南
91 浙江师范大学 浙江
94 首都师范大学 北京
95 汕头大学 广东
96 中国传媒大学 北京
97 杭州电子科技大学 浙江
98 扬州大学 江苏
99 安徽大学 安徽
100 华侨大学 福建
101 宁波大学 浙江
101 首都经济贸易大学 北京
101 西交利物浦大学 江苏
104 燕山大学 河北 Process finished with exit code 0

输出

python爬虫模板 - 最好大学网的更多相关文章

  1. Python爬虫爬取全书网小说,程序源码+程序详细分析

    Python爬虫爬取全书网小说教程 第一步:打开谷歌浏览器,搜索全书网,然后再点击你想下载的小说,进入图一页面后点击F12选择Network,如果没有内容按F5刷新一下 点击Network之后出现如下 ...

  2. python爬虫:爬取慕课网视频

    前段时间安装了一个慕课网app,发现不用注册就可以在线看其中的视频,就有了想爬取其中的视频,用来在电脑上学习.决定花两天时间用学了一段时间的python做一做.(我的新书<Python爬虫开发与 ...

  3. Python爬虫抓取东方财富网股票数据并实现MySQL数据库存储

    Python爬虫可以说是好玩又好用了.现想利用Python爬取网页股票数据保存到本地csv数据文件中,同时想把股票数据保存到MySQL数据库中.需求有了,剩下的就是实现了. 在开始之前,保证已经安装好 ...

  4. Python 爬虫 爬校花网!!

    爬虫:是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本 1.福利来了  校花网 ,首先说为什么要爬这个网站呢,第一这个网站简单爬起来容易不会受到打击,第二呢 你懂得... 1.第一步,需要下载 ...

  5. Python爬虫 爬取百合网的女人们和男人们

    学Python也有段时间了,目前学到了Python的类.个人感觉Python的类不应称之为类,而应称之为数据类型,只是数据类型而已!只是数据类型而已!只是数据类型而已!重要的事情说三篇. 据书上说一个 ...

  6. Python 爬虫: 抓取花瓣网图片

    接触Python也好长时间了,一直没什么机会使用,没有机会那就自己创造机会!呐,就先从爬虫开始吧,抓点美女图片下来. 废话不多说了,讲讲我是怎么做的. 1. 分析网站 想要下载图片,只要知道图片的地址 ...

  7. Python爬虫入门教程 21-100 网易云课堂课程数据抓取

    写在前面 今天咱们抓取一下网易云课堂的课程数据,这个网站的数据量并不是很大,我们只需要使用requests就可以快速的抓取到这部分数据了. 你第一步要做的是打开全部课程的地址,找出爬虫规律, 地址如下 ...

  8. 项目: python爬虫 福利 煎蛋网妹子图

    嘿嘿嘿! 嘿嘿嘿! 福利一波, 之前看小甲鱼的python教学视频的时候, 看到上面教的爬虫, 爬美女图片的, 心很痒痒, 但是不知道为啥, 按照视频一个字一个字敲的代码,总是报错, 有一天花了 一下 ...

  9. python爬虫爬取赶集网数据

    一.创建项目 scrapy startproject putu 二.创建spider文件 scrapy genspider  patubole patubole.com   三.利用chrome浏览器 ...

随机推荐

  1. Docker-Compose练习

    运行一个镜像,需要添加大量的参数. 可以通过Docker-Compose编写这些参数. Docker-Compose可以帮助我们批量的管理容器. 只需要通过一个docker-compose.yml文件 ...

  2. MQ for linux安装与卸载【转】

    MQ for linux安装与卸载[转] 一.安装步骤:1. 用root帐号登录系统2. MQ安装程序需将代码安装到目录/opt/mqm下,将数据保存到目录/var/mqm下,需确保相关目录下有足够的 ...

  3. python3 最基本且简单的实现组合设计模式

    组合模式是把一个类别归为一个整体,并且组织多个整体之间的关系,使用通过树形结构来描述所有整体. 一般的编写方式为一个类别对象下添加多个该对象的元素,该对象又为其它对象下的元素.简单来说就是一个学校有一 ...

  4. 【Sed】使用sed删除文件指定行的内容

    sed多看帮助文档,受益良多 sed -i '$d' filename 例如删除 /etc/profile的最后一行 cat -n /etc/profile ...    101  export PA ...

  5. Linux删除文件后磁盘目录不释放

    今天测试oracle数据库的时候,把表空间连带内容和数据文件一并删除了,但是删除之后,查看数据文件不存在了,但是目录的带下没有释放 SQL> drop tablespace users incl ...

  6. printf函数输出格式总结

    printf函数格式 函数描述: printf("[格式化字符串]", [参数链表]); 函数声明: int printf(const char *format, ...) ; 输 ...

  7. 集成 12 种协议、可于 USBC 端口的快充协议芯片IP2188

    1. 特性  支持 12 种 USB 端口快充协议  支持 USB TypeC PD2.0/PD3.0/PPS DFP 协议  支持多种充电协议(QC3.0/QC2.0,FCP,SCP, AFC,MT ...

  8. 接收的参数为日期类型、controller控制层进行数据保存、进行重定向跳转

    目录 1.接收的参数为日期类型 2.controller控制层进行数据保存 3.controller层如何进行重定向跳转(因为默认是请求转发) 4.静态资源的映射 1.接收的参数为日期类型 WEB-I ...

  9. 面试必问:如何实现Redis分布式锁

    摘要:今天我们来聊聊分布式锁这块知识,具体的来看看Redis分布式锁的实现原理. 一.写在前面 现在面试,一般都会聊聊分布式系统这块的东西.通常面试官都会从服务框架(Spring Cloud.Dubb ...

  10. K8s secret解密

    root@ubuntu:~# kubectl get secret rbd-db -n rbd-system -o yaml apiVersion: v1 data: mysql-password: ...