来到csdn也快两个月了,前前后后写了20篇博客,但才1800+的访问量,其中恐怕还有300多是我自己点的

有点桑心(┬_┬)

于是打算另辟蹊径,自己刷访问量
代码如下,需要自取

import urllib.request
import requests
import time
import ssl
import random def openUrl(ip, agent):
headers = {'User-Agent': agent}
proxies = {'http' : ip}
######################################################################################################################
requests.get("https://blog.csdn.net/qq_38175040/article/details/105555979", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105723124", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105709758", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105533341", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105481195", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105411407", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105385858", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105269253", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105143224", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/105118224", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104965393", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104922374", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104867747", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104684355", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104654254", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104581291", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104575123", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104555324", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104484876", headers=headers, proxies=proxies, verify=True)
requests.get("https://blog.csdn.net/qq_38175040/article/details/104473154", headers=headers, proxies=proxies, verify=True)
########################################################################################################################
ssl._create_default_https_context = ssl._create_unverified_context
print("Access to success.") def randomIP():
ip = random.choice(['120.78.78.141', '122.72.18.35', '120.92.119.229'])
return ip #User-Agent
#User-Agent来源:http://www.useragentstring.com/pages/useragentstring.php
def randomUserAgent():
UserAgent = random.choice(['Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2228.0 Safari/537.36',
'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2227.1 Safari/537.36',
'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2227.0 Safari/537.36'])
return UserAgent if __name__ == '__main__':
for i in range(60):
ip = randomIP()
agent = randomUserAgent()
openUrl(ip, agent)
time.sleep(60)

在python3.x的idle下可以运行:

最后附上效果图:

OK,这不就行了吗,要的就是这个效果!!!

python 小脚本/自动重复访问网站(快速提高网页访问量)的更多相关文章

  1. iptables自动屏蔽访问网站最频繁的IP

    iptables自动屏蔽访问网站频繁的IP 屏蔽每分钟访问超过200的IP 方法1:根据访问日志(Nginx为例 #!/bin/bash DATE=$(date +%d/%b/%Y:%H:%M) AB ...

  2. python小脚本(18-11.10)-修改excle后批量生成,作用:导入数据时,系统做了不能导入重复数据时的限制时使用 -本来是小白,大神勿扰

    from testcase.test_mokuai.operation_excle import OperationExcleimport shutil class test_daoru(): #一个 ...

  3. 分享几个python小脚本

    by 梁凯 今天我想给大家分享几个python脚本,分别是: 1.公司访问外网认证脚本(最初有同事写过,我优化了一下). 2.统计周报系统所有同事的最近一篇周报. 3.统计测试技术分享里指定一个月所有 ...

  4. python 小脚本升级-- 钉钉群聊天机器人

    一则小脚本(工作中用) 在这篇文章中写的监控的脚本,发送监控的时候 是利用的邮箱,其实在实际,邮箱查收有着不方便性,于是乎升级, 我们工作中,经常用钉钉,那么如果要是能用到钉钉多好,这样我们的监控成功 ...

  5. 分享一个刷网页PV的python小脚本

    下面分享一个小脚本,用来刷网页PV. [root@huanqiu ~]# cat www.py #!/usr/bin/python# coding: UTF-8import webbrowser as ...

  6. 第一个python小脚本

    第一个python小实验 前言 作为一个工作1年的linux运维搬砖师来说,发现没点开发能力真的是不好混啊.于是下定决心学习python! 直接上刚写的语句(大神莫鄙视) 通过控制台输入一个账号密码, ...

  7. 网站渗透常用到的Python小脚本

    0×00渗透的很多时候,找到的工具并不适用,自己码代码才是王道,下面三个程序都是渗透时在网络上找不到合适工具,自己辛苦开发的,短小使用,求欣赏,求好评. 0×01记录root密码小工具 root.py ...

  8. Python小爬虫-自动下载三亿文库文档

    新手学python,写了一个抓取网页后自动下载文档的脚本,和大家分享. 首先我们打开三亿文库下载栏目的网址,比如专业资料(IT/计算机/互联网)http://3y.uu456.com/bl-197?o ...

  9. 短小实用 渗透用的Python小脚本

    渗透的很多时候,找到的工具并不适用,自己码代码才是王道,下面三个程序都是渗透时在网络上找不到合适工具,自己辛苦开发的,短小实用. 一.记录root密码小工具 root.py #!/usr/bin/py ...

随机推荐

  1. 没有Qt Quick UI,没有 Qt Quick Project

    书上写的是File ‣ New File or Project ‣ Qt Quick Project ‣ Qt Quick UI 但实际上是File ‣ New File or Project ‣ O ...

  2. Linux 查网关和dns命令

    一,查看网关(缺省路由)方法: 1.route -n 或netstat -rn2.ip route show  二, 查看DNS: nslookup www.baidu.com

  3. 数据隐私和GDPR

    近十几年来,随着大数据给各行各业带来的变化,以及数据时代不断强调的数据就是燃料,谁掌握数据谁就掌握未来的各种论调,大家纷纷开始收集数据,挖掘数据,转卖数据.而个人,作为数据真正拥有者的利益早就在商业利 ...

  4. 存储池与存储卷,使用virt-install创建虚拟机

    原文链接:https://www.cnblogs.com/zknublx/p/9199658.html 创建存储池 1.建立存储池的目录 mkdir /kvm/images 2.为了安全性,更改目录的 ...

  5. 2020.5.27 第七篇 Scrum冲刺博客

    Team:银河超级无敌舰队 Project:招新通 项目冲刺集合贴:链接 目录 一.每日站立会议 1.1 会议照片 1.2 项目完成情况 二.项目燃尽图 三.签入记录 3.1 代码/文档签入记录 3. ...

  6. CentOS 7/8上部署Ceph

    Ceph是一个分布式的存储系统,可以在统一的系统中提供唯一的对象.块和文件存储,Ceph的大致组件如下: 1. Ceph监视器(ceph-mon):用来维护集群状态的映射,包括监视器映射,管理器映射, ...

  7. 双操作系统(ubuntu/windows7)安装教程

    前言 前两天出于项目原因,本人心血来潮地给久经战场的电脑老大哥找个小媳妇,哈哈哈,装了两个系统.分别是用了多年的win7和接触不久的Ubuntu,在其中遇到了一些坑,在此记录下来,希望能给自己和大家带 ...

  8. Xposed+X5使用

    1.Xposed 2.X5

  9. SEO外包好还是自己组建团队

    http://www.wocaoseo.com/thread-151-1-1.html       营络营销已成为企业不可忽视的一块大肥肉,很多企业都想进来分一杯羹,但是不少企业苦于缺少过硬的技术,无 ...

  10. Sql 注入----学习笔记

    先了解下CRLF,CRLF常用在分隔符之间,CR是carriage retum(ASCII 13,\r) LF是Line Feed (ASCII 10,\n), \r\n这两个字符类似于回车是用于换行 ...