整蛊一下室友就行了,切勿用于非法用途! 利用python脚本控制室友windows系统电脑的开机密码.利用random()生成随机数(密码),天知地知,密码只有你自己知道! Python代码分为client端跟server端,当室友运行你的client端脚本他就中招了. 如何悄无声息的实现呢? 先在自己电脑上运行server端,client端会在室友电脑上通过random()随机生成一个数字密码,接着由socket发送到server端(你的电脑). 先在Linux上运行server端,然后接收来…
有人会问re和xpath是什么关系?如果你了解js与jquery,那么这个就很好理解了. 上一篇:利用python脚本(re)抓取美空mm图片 # -*- coding:utf-8 -*- from lxml import etree html = """ <!DOCTYPE html> <html> <head lang="en"> <title>我的文档</title> <meta ht…
利用Python 脚本生成 .h5 文件 import os, json, argparse from threading import Thread from Queue import Queue import numpy as np from scipy.misc import imread, imresize import h5py """ Create an HDF5 file of images for training a feedforward style tr…
Zabbix 利用python脚本实现钉钉告警 1.安装python3.6环境 2.创建python脚本 cd local/zabbix-4.0.3/share/zabbix/alertscripts/ 新建一个zabbix_dingding.py文件 vi zabbix_dingding.py //修改文件所有者为zabbix chown zabbix.zabbix zabbix_dingding.py //设置所有者为7权限 chmod 744 zabbix_dingding.py 文件内容…
利用Python脚本完成如下图所示的一个Fat-tree型的拓扑(交换机和主机名需与图中一致,即s1~s6,h1~h8) 参考资料 修改代码如下: from mininet.topo import Topo from mininet.net import Mininet from mininet.node import RemoteController,CPULimitedHost from mininet.link import TCLink from mininet.util import…
因为VS2012创建默认文件是在proj.win32下,新建类不在VS的classes于是编译时找不到类.直接写个脚本帮助新建类(cpp和h文件),还能够在里面加上一些预先写好的代码. 批处理文件CreateClassInProject.bat,代码例如以下 @echo off echo CreateClassInProject: set /p projectName=Please Input Project Name: set /p className=Please Input Class N…
很久没有写博客了,这段时间一直在搞风控的东西,过段时间我把风控的内容整理整理发出来大家一起研究研究. 这两天抽空写了两个python爬虫脚本,一个使用re,一个使用xpath. 直接上代码——基于re: spider.py # -*- coding:utf-8 -*- import urllib.request import re import tool import os import http.cookiejar # 抓取MOKO_MM class Spider: # 页面初始化 def _…
一.编写脚本 cd /usr/local/zabbix-4.0.3/share/zabbix/alertscripts vi zabbix_sms.py 内容如下: #!/usr/bin/python # -*- coding: UTF-8 -*- import sys import requests import urllib def sendsms(phone, message): data = { 'serviceid':'H435454534', 'fromserver':'1069xx…
#!/usr/bin/python # -*- coding: utf-8 -*- import requests import json import sys import os headers = {'Content-Type': 'application/json;charset=utf-8'} api_url = "https://oapi.dingtalk.com/robot/send?access_token=e580dbc9d992b790f86136601d95582630afb…
转自:https://foofish.net/python-crawler-html2pdf.html 工具准备 弄清楚了网站的基本结构后就可以开始准备爬虫所依赖的工具包了.requests.beautifulsoup 是爬虫两大神器,reuqests 用于网络请求,beautifusoup 用于操作 html 数据.有了这两把梭子,干起活来利索,scrapy 这样的爬虫框架我们就不用了,小程序派上它有点杀鸡用牛刀的意思.此外,既然是把 html 文件转为 pdf,那么也要有相应的库支持, wk…