有些冗余信息.由于之前測试正則表達式.所以没有把它们给移走.只是不影响使用. # -*- coding:utf-8 -*- import re,urllib,sys,os,time def getAllUrl(): entry=sys.argv[1] #try: getPage=urllib.urlopen(entry).read() #except: # print "Error" pattern=re.compile(r'<a href="(.+? )".…
一 写爬虫注意事项 网络上有不少有用的资源, 如果需要合理的用爬虫去爬取资源是合法的,但是注意不要越界,前一阶段有个公司因为一个程序员写了个爬虫,导致公司200多个人被抓,所以先进入正题之前了解下什么样的爬虫是违法的: 如果爬虫程序采集到公民的姓名.身份证件号码.通信通讯联系方式.住址.账号密码.财产状况.行踪轨迹等个人信息,并将之用于非法途径的,则肯定构成非法获取公民个人信息的违法行为.除此之外,根据相关规定,对于违反国家有关规定,向他人出售或者提供公民个人信息,情节严重的,窃取或者以其他方法…
本人初次尝试用Python批量下载DACC的MODIS数据,记下步骤,提醒自己,数据还在下载,成功是否未知,等待结果中...... 若有大佬发现步骤有不对之处,望指出,不胜感激. 1.下载Python:https://www.python.org/downloads/ (1)在下面版本中任选一版本: (2)选择适合自己系统的软件下载 (3)下载完成之后,按照网上教程安装即可:https://jingyan.baidu.com/article/c45ad29c05c208051653e270.ht…
环境:windows 7 64位:python2.7:IDE pycharm2016.1 功能: 批量下载百度贴吧某吧某页的所有帖子中的所有图片 使用方法: 1.安装python2.7,安装re模块,安装urllib2模块 2.复制以下源代码保存为tbImgiDownloader.py文件 3.打开某个贴吧并复制其网址 4.打开文件tbImgiDownloader.py在第37行的单引号中输入网址,保存  5.双击tbImgiDownloader.py 说明: 1.本程序每次可以下载大概50个贴…
前言 批量下载网页上的图片需要三个步骤: 获取网页的URL 获取网页上图片的URL 下载图片 例子 from html.parser import HTMLParser import urllib.request import os,uuid,sys #第1步: class PageLinkParser(HTMLParser): def __init__(self,strict=False): HTMLParser.__init__(self,strict) self.all=[] def ha…
#!/usr/bin/python #coding=utf8 # 自行下载微信模块 itchat 小和QQ496631085 import itchat,os itchat.auto_login() # 可以自行看有什么数据 # print(itchat.get_friends(update=True)) for friend in itchat.get_friends(update=True)[0:]: #可以用此句print查看好友的微信名.备注名 # print(friend['NickN…
文章目录 很多人学习python,不知道从何学起.很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上手.很多已经做案例的人,却不知道如何去学习更加高深的知识.那么针对这三类人,我给大家提供一个好的学习平台,免费领取视频教程,电子书籍,以及课程的源代码!QQ群:101677771 一.项目概述 1.项目背景 2.环境配置 下载ffmpeg 设置环境变量 二.项目实施 1.导入需要的库 2.设置请求参数 3.基本处理 4.下载视频 5.视频和音频合并成完整的视频 6.3种下载方式的分…
1.说明 用 IIS 以WEB形式发布了本地文件夹,提供文件下载,并设置了访问权限:默认下载需要点击一个一个的下载,web界面如下: 3.脚本 执行脚本批量下载文件,会在当前目录创建文件夹,并压缩该文件夹. # -*- coding: utf-8 -*- import requests import re import os import zipfile import urllib3 urllib3.disable_warnings() # 需要下载的文件信息 year = month = da…
#!/bin/bash#本脚本准备有序的网络资料进行批量下载操作(如 01.jpg,02.jpg,03.jpg)#设置资源来源的域名连接 url="http://www.test.com/"echo "开始下载..."sleep 2type=jpg for i in `seq 100`     echo "正在下载$i.$type"     curl $url/$i.$type -o /tmp/${i}$type     sleep 1done#…
一是用微软提供的扩展库win32com来操作IE: win32com可以获得类似js里面的document对象,但貌似是只读的(文档都没找到). 二是用selenium的webdriver: selenium则提供了Chrome,IE,FireFox等的支持,每种浏览器都有execute_script和find_element_by_xx方法,可以方便的执行js脚本(包括修改元素)和读取html里面的元素.不足是selenium只提供对python2.6和2.7的支持. 三是用python自带的…
#coding=utf-8import re,sysimport urllib def getHtml(url): page = urllib.urlopen(url) html = page.read() return html'''re.compile() 可以把正则表达式编译成一个正则表达式对象.re.findall() 方法读取html 中包含 imgre(正则表达式)的数据.运行脚本将得到整个页面中包含图片的URL地址.''' def getImg(html): reg = r'src…
我们常常需要下载网页上很多喜欢的图片,但是面对几十甚至上百张的图片,一个一个去另存为肯定是个很差的体验. 我们可以用urllib包获取html的源码,再以正则表达式把匹配的图片链接放入一个list中,使用for循环来依次下载list中的链接. import re import urllib a = raw_input("Please input a URL: ") s = urllib.urlopen(a) s2 = s.read() def image(s2): reg = r'sr…
从数据库拿了一批图片地址,需要一张一张的把图片下载下来,自从有了python,想到能省事就琢磨如何省事. 代码如下: import urllib.requestf=open("E:\999\\1.txt","r")fi=f.readlines()lo=[]for t in fi: lo.append(t)print(list(lo))f.close()count=0for i in lo: count+=1 file_name = "%s.jpg"…
​ 为了做一个图像分类的小项目,需要制作自己的数据集.要想制作数据集,就得从网上下载大量的图片,再统一处理. 这时,一张张的保存下载,就显得很繁琐.那么,有没有一种方法可以把搜索到的图片直接下载到本地电脑中呢? 有啊!用python吧! 我以“泰迪”.“柯基”.“拉布拉多”等为关键词,分别下载了500张图片.下一篇,我打算写一个小狗分类器,不知道各位意见如何! 结果演示: ​ 编写思路: 1.获取图片的url链接 首先,打开百度图片首页,注意下图url中的index ​ 接着,把页面切换成传统翻…
import urllib.request import os def url_open(url): req = urllib.request.Request(url) req.add_header('User-Agent', 'Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/43.0.2357.134 Safari/537.36') response = urllib.reque…
import urllib.request import os def url_open(url): req = urllib.request.Request(url) req.add_header('User-Agent', 'Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/43.0.2357.134 Safari/537.36') response = urllib.reque…
Plus是一个介绍数学之美与实际应用的网络杂志,其中包含了数学知识.轶闻趣事.历史典故等许多精彩的内容.该杂志恰好有一个Podcast栏目,提供了不少采访与讲座的mp3音频.于是, 我使用Python脚本将所有的Podcast文件都下载了下来,用于上下班路途上不适宜看书的时候听. 该脚本引入了四个模块: re用于正则表达式匹配,将Podcast标题转为音频文件名.这是由于Linux系统下的文件名应避免包含字符/><|:&.所以,如果Podcast标题包含了这些字符,就需要将它们替换掉.…
背景 由于同学每周要通过邮箱收数学建模作业,100多人给她发附件,她要一个个地点着下载. 太麻烦了,所以想用程序实现下载附件的功能. 在网上查资料后,最终实现了稍为简单的下载附件功能,代码有些细节还不是很了解. 2019.4.16更新: 过几天我也要用邮箱收文件,有了这份代码刚好能用!这再次印证知识不会没用处的,不学才会觉得知识没用呢. 代码 import poplib import email import time from email.parser import Parser from e…
soupR.py 代码例如以下 # -*- coding: cp936 -*- import urllib import urllib2 import os, re from BeautifulSoup import BeautifulSoup localDir = 'D:/test/' URL = "http://cran.dataguru.cn/bin/windows/contrib/3.1/" page = urllib2.urlopen(URL) soup = Beautifu…
使用ftplib,轻松实现从ftp服务器上下载所需要的文件,包括目录结构等,支持了一下断点续传 from ftplib import FTP import sys import os import re def ftpconnet(ftpserver,port,username,password): ftp = FTP() try: ftp.connect(ftpserver,port) except: raise IOError,'FTP connect failed!' try: ftp.l…
#coding=utf-8 import os import urllib import urllib2 import re from bs4 import BeautifulSoup # 利用 urllib.urlretrieve() 函数进行下载.非常方便 import socket #超时时间 socket.setdefaulttimeout(5) # 一个空文件夹 basedir=r"E:\spring".decode('utf-8') os.chdir(basedir) ho…
前言 为了看美剧<天蝎>,在电影天堂找到了,于是就想下载下来好好欣赏. 废话不说了,直接上代码. 代码 import requests,re,os,time url = "http://www.dygod.net/html/tv/oumeitv/109673.html" s = requests.get(url) # print(s.encoding) #打印下汉字的编码类型 res = re.findall('href="(.*?)">ftp',…
file.txt 的内容为: http://183.xxx.xxx.54:188/my/qqq.ico::qq.exe::0::http://183.xxx.xxx.54:186/my/ddnf.ico::dnf.exe::0:: import re import os.path import urllib.request import socket #Python读写文件 #使用open打开文件后一定要记得调用文件对象的close()方法.比如可以用try/finally语句来确保最后能关闭文…
执行我github里的这个report: 选中一段markdown文档,ctrl C: 然后直接执行report: 执行完毕: 所有文件都下载到本地文件夹: 这个report使用到的工具类:zcl_crm_cm_tool 要获取更多Jerry的原创技术文章,请关注公众号"汪子熙"或者扫描下面二维码:…
刚学到爬虫识别验证码,所以自己建一个获取验证码的类,感兴趣的道友,可以看看,代码如下: import requests import time import os import re class Pictures: """docstring for Pictures""" def __init__(self, url, request=None, file_dir=None, headers=None): self.url = url if no…
# -*- coding: utf-8 -*-__author__ = 'Administrator'from PyQt4.Qt import *from PyQt4.QtCore import *from PyQt4.QtGui import *import sys,os,datetime,urllib,urllib2,re,threading,threadfrom g1 import Ui_Formclass Gui2(QDialog,Ui_Form):    def __init__(se…
#coding=utf-8import sys, string, os, shutil #输入目录名和前缀名,重命名后的名称结构类似prefix_0001 def RenameFiles(srcdir, prefix): srcfiles = os.listdir(srcdir) index = 1 for srcfile in srcfiles: srcfilename = os.path.splitext(srcfile)[0][1:] sufix = os.path.splitext(sr…
qqmusic上的音乐还是不少的,有些时候想要下载好听的音乐,但有每次在网页下载都是烦人的登录什么的.于是,来了个qqmusic的爬虫. 至少我觉得for循环爬虫,最核心的应该就是找到待爬元素所在url吧.下面开始找吧(讲的不对不要笑我) #寻找url: 这个url可不想其他的网站那么好找.把我给累得不轻,关键是数据多,从那么多数据里面挑出有用的数据,最后组合为music真正的music.昨天做的时候整理的几个中间url: #url1:https://c.y.qq.com/soso/fcgi-b…
前言 在上一篇写文章没高质量配图?python爬虫绕过限制一键搜索下载图虫创意图片!中,我们在未登录的情况下实现了图虫创意无水印高清小图的批量下载.虽然小图能够在一些移动端可能展示的还行,但是放到pc端展示图片太小效果真的是很一般!建议阅读本文查看上一篇文章,在具体实现不做太多介绍,只讲个分析思路. 当然,本文可能技术要求不是特别高,但可以当作一个下图工具使用. 环境:python3+pycharm+requests+re+BeatifulSoup+json 在这里插入图片描述这个确实也属实有一…
Fatkun图片批量下载 相信大家一定遇到过有着大量精美图片的网页,譬如美女照片.各种壁纸.设计素材.甚至是1024套图等等,但常常几十上百张的图要一张张手工去点击下载实在能让人抓狂!小编的工作中也常常遇到这样的烦恼,这时候我们只能借助批量下载网页图片的工具了.今天介绍的就是这样一款Fatkun图片批量下载插件,找出当前页面的所有图片,提供按分辨率.链接等筛选图片,可以大大提高收图的效率,绝对是收图党必备的利器. Fatkun图片批量下载Chrome插件官方简介 其实跟很多浏览器插件一样,这款F…