学习了一段时间的web前端,感觉有点看不清前进的方向,于是就写了一个小爬虫,爬了51job上前端相关的岗位,看看招聘方对技术方面的需求,再有针对性的学习. 我在此之前接触过Python,也写过一些小脚本,于是决定用Python来完成这个小项目. 首先说说一个爬虫的组成部分: 1.目标连接,就是我需要爬取信息的网页的链接: 2.目标信息,就是网页上我需要抓取的信息: 3.信息梳理,就是对爬取的信息进行整理. 下面我来说说整个爬虫的设计思路: 总体思路:以“前端”关键字进行搜索,把搜索结果上面每一个…
为什么选择python,它强大的库可以让你专注在爬虫这一件事上而不是更底层的更繁杂的事 爬虫说简单很简单,说麻烦也很麻烦,完全取决于你的需求是什么以及你爬的网站所决定的,遇到的第一个简单的例子是paste.ubuntu.com 这是一个贴代码的网站,没事喜欢看看有没有什么好玩的东西,只是上面大部分都是minecraft的东西,于是写了以下代码 import urllib2 import socket import re def getData(url, timeOut = 10): try: h…
需求描述: 1,打开网站: 2,获取网站的文件内容: 3,返回保存到文件中: 这里的就用到了多线程的方法 import requests,threading,time def write_html(url,name): r = requests.get(url) with open(name,'w',encoding='utf-8') as fw: fw.write(r.text) urls=['www.nnzhp.cn','besttest.cn','www.imdsx.cn','sb.nnz…
我想要一个可以为我的所有重要文件创建备份的程序.(下面测试环境为python2.7) 1.backup_ver1.py #!/usr/bin/python import os import time # 1. The files and directories to be backed up are specified in a list. source = ['/home/esun'] # If you are using Windows, use source = [r'C:\Documen…
问题:写一个可以为所有重要文件创建备份的程序 考虑:源路径和目标路径各是什么;所有重要文件-有哪些;备份文件格式是什么;定期备份的话,备份文件名称如何规定等等.(ps,我自己只想到一个路径和名称) 程序设计: 1 需要备份的文件和目录由一个列表指定 2 备份应该保存在主备份目录中.? 3 文件备份成一个tar文件(原文档为zip文件,我的linux没有安装,所以使用tar) 4 tar存档的名称是当前的日期和时间 5 使用标准的tar命令 Version1.0 #/usr/bin/python…
安装了Python的环境之后,就是编写Python的代码了. 首先,我们来写一个简单的“hello world” 新建一个空白的txt文本,将后缀改为.py 改了后缀之后即变为Python程序的图标 然后,右键图标使用Python自带的编辑器IDLE来写代码 接着输入代码: print('hello world!') 最后运行代码: 选择Run>Run Module,或者按快捷键F5,即可运行代码. 得到结果如下: 第一个hello world程序就完成了.…
#coding:utf-8 #print 'input your name, please' #name = raw_input('请输入你的名字:'.decode('utf-8').encode('gbk')) #print '你好!'.decode('utf-8').encode('gbk'), name print 1.23e9 print -1.23e9+1 print 1.*5/2 print 5/2 print 'I\'am Jerry' print "I\'am Jerry&quo…
起因 深夜忽然想下载一点电子书来扩充一下kindle,就想起来python学得太浅,什么“装饰器”啊.“多线程”啊都没有学到. 想到廖雪峰大神的python教程很经典.很著名.就想找找有木有pdf版的下载,结果居然没找到!!CSDN有个不完整的还骗走了我一个积分!!尼玛!! 怒了,准备写个程序直接去爬廖雪峰的教程,然后再html转成电子书. 过程 过程很有趣呢,用浅薄的python知识,写python程序,去爬python教程,来学习python.想想有点小激动…… 果然python很是方便,5…
requests 1.简介 Requests 是用Python语言编写的第三方库,所以你需要pip安装,安装过程就略过了.它基于urllib,采用 Apache2 Licensed 开源协议的 HTTP 库.它比 urllib 更加方便实用,功能强大,可以节约我们大量的工作,满足一般的HTTP 测试需求.最重要的是,它支持 Python3 2.方法/属性 3.常用方法/属性解析 既然requests基于urllib,那么和前面几篇博文一样了,不用太多的介绍方法,直接从实例中解析常用方法吧. 本来…