python 小脚本/自动重复访问网站(快速提高网页访问量)
来到csdn也快两个月了,前前后后写了20篇博客,但才1800+的访问量,其中恐怕还有300多是我自己点的
有点桑心(┬_┬)
于是打算另辟蹊径,自己刷访问量
代码如下,需要自取
import urllib.request
import requests
import time
import ssl
import random
def openUrl(ip, agent):
headers = {'User-Agent': agent}
proxies = {'http' : ip}
######################################################################################################################
requests.get("https://blog.csdn.net/qq_38175040/article/details/105555979", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105723124", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105709758", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105533341", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105481195", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105411407", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105385858", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105269253", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105143224", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105118224", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104965393", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104922374", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104867747", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104684355", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104654254", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104581291", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104575123", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104555324", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104484876", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104473154", headers=headers, proxies=proxies, verify=True)
########################################################################################################################
ssl._create_default_https_context = ssl._create_unverified_context
print("Access to success.")
def randomIP():
ip = random.choice(['120.78.78.141', '122.72.18.35', '120.92.119.229'])
return ip
#User-Agent
#User-Agent来源:http://www.useragentstring.com/pages/useragentstring.php
def randomUserAgent():
UserAgent = random.choice(['Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2228.0 Safari/537.36',
'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2227.1 Safari/537.36',
'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2227.0 Safari/537.36'])
return UserAgent
if __name__ == '__main__':
for i in range(60):
ip = randomIP()
agent = randomUserAgent()
openUrl(ip, agent)
time.sleep(60)
在python3.x的idle下可以运行:
最后附上效果图:
OK,这不就行了吗,要的就是这个效果!!!
python 小脚本/自动重复访问网站(快速提高网页访问量)的更多相关文章
- iptables自动屏蔽访问网站最频繁的IP
iptables自动屏蔽访问网站频繁的IP 屏蔽每分钟访问超过200的IP 方法1:根据访问日志(Nginx为例 #!/bin/bash DATE=$(date +%d/%b/%Y:%H:%M) AB ...
- python小脚本(18-11.10)-修改excle后批量生成,作用:导入数据时,系统做了不能导入重复数据时的限制时使用 -本来是小白,大神勿扰
from testcase.test_mokuai.operation_excle import OperationExcleimport shutil class test_daoru(): #一个 ...
- 分享几个python小脚本
by 梁凯 今天我想给大家分享几个python脚本,分别是: 1.公司访问外网认证脚本(最初有同事写过,我优化了一下). 2.统计周报系统所有同事的最近一篇周报. 3.统计测试技术分享里指定一个月所有 ...
- python 小脚本升级-- 钉钉群聊天机器人
一则小脚本(工作中用) 在这篇文章中写的监控的脚本,发送监控的时候 是利用的邮箱,其实在实际,邮箱查收有着不方便性,于是乎升级, 我们工作中,经常用钉钉,那么如果要是能用到钉钉多好,这样我们的监控成功 ...
- 分享一个刷网页PV的python小脚本
下面分享一个小脚本,用来刷网页PV. [root@huanqiu ~]# cat www.py #!/usr/bin/python# coding: UTF-8import webbrowser as ...
- 第一个python小脚本
第一个python小实验 前言 作为一个工作1年的linux运维搬砖师来说,发现没点开发能力真的是不好混啊.于是下定决心学习python! 直接上刚写的语句(大神莫鄙视) 通过控制台输入一个账号密码, ...
- 网站渗透常用到的Python小脚本
0×00渗透的很多时候,找到的工具并不适用,自己码代码才是王道,下面三个程序都是渗透时在网络上找不到合适工具,自己辛苦开发的,短小使用,求欣赏,求好评. 0×01记录root密码小工具 root.py ...
- Python小爬虫-自动下载三亿文库文档
新手学python,写了一个抓取网页后自动下载文档的脚本,和大家分享. 首先我们打开三亿文库下载栏目的网址,比如专业资料(IT/计算机/互联网)http://3y.uu456.com/bl-197?o ...
- 短小实用 渗透用的Python小脚本
渗透的很多时候,找到的工具并不适用,自己码代码才是王道,下面三个程序都是渗透时在网络上找不到合适工具,自己辛苦开发的,短小实用. 一.记录root密码小工具 root.py #!/usr/bin/py ...
随机推荐
- 没有Qt Quick UI,没有 Qt Quick Project
书上写的是File ‣ New File or Project ‣ Qt Quick Project ‣ Qt Quick UI 但实际上是File ‣ New File or Project ‣ O ...
- Linux 查网关和dns命令
一,查看网关(缺省路由)方法: 1.route -n 或netstat -rn2.ip route show 二, 查看DNS: nslookup www.baidu.com
- 数据隐私和GDPR
近十几年来,随着大数据给各行各业带来的变化,以及数据时代不断强调的数据就是燃料,谁掌握数据谁就掌握未来的各种论调,大家纷纷开始收集数据,挖掘数据,转卖数据.而个人,作为数据真正拥有者的利益早就在商业利 ...
- 存储池与存储卷,使用virt-install创建虚拟机
原文链接:https://www.cnblogs.com/zknublx/p/9199658.html 创建存储池 1.建立存储池的目录 mkdir /kvm/images 2.为了安全性,更改目录的 ...
- 2020.5.27 第七篇 Scrum冲刺博客
Team:银河超级无敌舰队 Project:招新通 项目冲刺集合贴:链接 目录 一.每日站立会议 1.1 会议照片 1.2 项目完成情况 二.项目燃尽图 三.签入记录 3.1 代码/文档签入记录 3. ...
- CentOS 7/8上部署Ceph
Ceph是一个分布式的存储系统,可以在统一的系统中提供唯一的对象.块和文件存储,Ceph的大致组件如下: 1. Ceph监视器(ceph-mon):用来维护集群状态的映射,包括监视器映射,管理器映射, ...
- 双操作系统(ubuntu/windows7)安装教程
前言 前两天出于项目原因,本人心血来潮地给久经战场的电脑老大哥找个小媳妇,哈哈哈,装了两个系统.分别是用了多年的win7和接触不久的Ubuntu,在其中遇到了一些坑,在此记录下来,希望能给自己和大家带 ...
- Xposed+X5使用
1.Xposed 2.X5
- SEO外包好还是自己组建团队
http://www.wocaoseo.com/thread-151-1-1.html 营络营销已成为企业不可忽视的一块大肥肉,很多企业都想进来分一杯羹,但是不少企业苦于缺少过硬的技术,无 ...
- Sql 注入----学习笔记
先了解下CRLF,CRLF常用在分隔符之间,CR是carriage retum(ASCII 13,\r) LF是Line Feed (ASCII 10,\n), \r\n这两个字符类似于回车是用于换行 ...