python 小脚本/自动重复访问网站(快速提高网页访问量)
来到csdn也快两个月了,前前后后写了20篇博客,但才1800+的访问量,其中恐怕还有300多是我自己点的
有点桑心(┬_┬)
于是打算另辟蹊径,自己刷访问量
代码如下,需要自取
import urllib.request
import requests
import time
import ssl
import random
def openUrl(ip, agent):
headers = {'User-Agent': agent}
proxies = {'http' : ip}
######################################################################################################################
requests.get("https://blog.csdn.net/qq_38175040/article/details/105555979", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105723124", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105709758", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105533341", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105481195", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105411407", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105385858", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105269253", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105143224", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105118224", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104965393", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104922374", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104867747", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104684355", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104654254", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104581291", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104575123", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104555324", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104484876", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104473154", headers=headers, proxies=proxies, verify=True)
########################################################################################################################
ssl._create_default_https_context = ssl._create_unverified_context
print("Access to success.")
def randomIP():
ip = random.choice(['120.78.78.141', '122.72.18.35', '120.92.119.229'])
return ip
#User-Agent
#User-Agent来源:http://www.useragentstring.com/pages/useragentstring.php
def randomUserAgent():
UserAgent = random.choice(['Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2228.0 Safari/537.36',
'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2227.1 Safari/537.36',
'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2227.0 Safari/537.36'])
return UserAgent
if __name__ == '__main__':
for i in range(60):
ip = randomIP()
agent = randomUserAgent()
openUrl(ip, agent)
time.sleep(60)
在python3.x的idle下可以运行:
最后附上效果图:
OK,这不就行了吗,要的就是这个效果!!!
python 小脚本/自动重复访问网站(快速提高网页访问量)的更多相关文章
- iptables自动屏蔽访问网站最频繁的IP
iptables自动屏蔽访问网站频繁的IP 屏蔽每分钟访问超过200的IP 方法1:根据访问日志(Nginx为例 #!/bin/bash DATE=$(date +%d/%b/%Y:%H:%M) AB ...
- python小脚本(18-11.10)-修改excle后批量生成,作用:导入数据时,系统做了不能导入重复数据时的限制时使用 -本来是小白,大神勿扰
from testcase.test_mokuai.operation_excle import OperationExcleimport shutil class test_daoru(): #一个 ...
- 分享几个python小脚本
by 梁凯 今天我想给大家分享几个python脚本,分别是: 1.公司访问外网认证脚本(最初有同事写过,我优化了一下). 2.统计周报系统所有同事的最近一篇周报. 3.统计测试技术分享里指定一个月所有 ...
- python 小脚本升级-- 钉钉群聊天机器人
一则小脚本(工作中用) 在这篇文章中写的监控的脚本,发送监控的时候 是利用的邮箱,其实在实际,邮箱查收有着不方便性,于是乎升级, 我们工作中,经常用钉钉,那么如果要是能用到钉钉多好,这样我们的监控成功 ...
- 分享一个刷网页PV的python小脚本
下面分享一个小脚本,用来刷网页PV. [root@huanqiu ~]# cat www.py #!/usr/bin/python# coding: UTF-8import webbrowser as ...
- 第一个python小脚本
第一个python小实验 前言 作为一个工作1年的linux运维搬砖师来说,发现没点开发能力真的是不好混啊.于是下定决心学习python! 直接上刚写的语句(大神莫鄙视) 通过控制台输入一个账号密码, ...
- 网站渗透常用到的Python小脚本
0×00渗透的很多时候,找到的工具并不适用,自己码代码才是王道,下面三个程序都是渗透时在网络上找不到合适工具,自己辛苦开发的,短小使用,求欣赏,求好评. 0×01记录root密码小工具 root.py ...
- Python小爬虫-自动下载三亿文库文档
新手学python,写了一个抓取网页后自动下载文档的脚本,和大家分享. 首先我们打开三亿文库下载栏目的网址,比如专业资料(IT/计算机/互联网)http://3y.uu456.com/bl-197?o ...
- 短小实用 渗透用的Python小脚本
渗透的很多时候,找到的工具并不适用,自己码代码才是王道,下面三个程序都是渗透时在网络上找不到合适工具,自己辛苦开发的,短小实用. 一.记录root密码小工具 root.py #!/usr/bin/py ...
随机推荐
- webpack打包原理
什么是 webpack ? 本质上,webpack 是一个现代 JavaScript 应用程序的静态模块打包器(module bundler).当 webpack 处理应用程序时,它会递归地构建一个依 ...
- HBA卡常用命令
HBA卡信息查看 查看对应的PCI设备lspci | grep LSI 如下:对应的HBA卡命令为sas3ircu 如下:对应的HBA卡使用sas2ircu 查看LSI控制器类型和型号 sas2irc ...
- Maven报错Missing artifact jdk.tools:jdk.tools:jar:1.7
1.eclipse中Maven项目的pom文件报错: 2.解决方法: 直接在pom.xml中加上一个依赖项目: <dependency> <groupId>jdk.t ...
- CallStub相关
CallStub相关 调用入口 share/vm/runtime/stubRoutines.hpp // Calls to Java SimonNote: 函数指针结合typedef类型定义 type ...
- kafka-clients 1.0 内部请求接口文档
AddOffsetsToTxnRequest version:0 name type defaultValue docString transactional_id STRING null The t ...
- 浏览器自动化的一些体会3 webBrowser控件之零碎问题
1. 一般需要执行这一句:webBrowser1.ScriptErrorsSuppressed = true; 主要目的是禁止跳出javascript错误的对话框,否则会导致程序无法正确地跑下去.缺点 ...
- MIT 6.828 Lab04 : Preemptive Multitasking
目录 Part A:Multiprocessor Support and Cooperative Multitasking Multiprocessor Support 虚拟内存图 Exercise ...
- unity探索者之UGUI圆形图片组件
版权声明:本文为原创文章,转载请声明https://www.cnblogs.com/unityExplorer/p/13524824.html 使用UGUI进行游戏开发的过程中经常会遇到一个问题:玩家 ...
- ClickHouse 参数配置
转载自:https://xw.qq.com/cmsid/20200806A0PQ7X00?ADTAG=amp 在 ClickHouse 进程中,CPU 的主频越高越好,通常建议使用 32 以上的机型, ...
- Mybatis入门(一)------基本概念操作
Mybatis简介 Mybatis是支持定制化 SQL.存储过程以及高级映射的优秀的持久层框架.MyBatis 避免了几乎所有的 JDBC 代码和手动设置参数以及获取结果集.MyBatis 可以对配置 ...