无聊之余,下面分享一个Python小脚本:测试网站页面访问速度 [root@huanqiu ~]# vim pywww.py #!/usr/bin/python # coding: UTF-8 import StringIO,pycurl,sys,os,time class idctest: def __init__(self): self.contents = '' def body_callback(self,buf): self.contents = self.contents + buf…
一.测试网站页面网速脚本 [root@salt ~]# cat check_url.py #!/usr/bin/python # coding: UTF-8 import StringIO,pycurl,sys,os,time class idctest: def __init__(self): self.contents = '' def body_callback(self,buf): self.contents = self.contents + buf def test_gzip(inp…
首先,为什么要学习shell呢?哈哈,当然不是shell能够怎样怎样然后100字. 最近看到一篇博文<开阔自己的视野,勇敢的接触新知识>,读完反思良久.常常感慨自己所会不多,对新知识又有畏惧心理,导致自己停滞不前.古人说,逆水行舟不进则退.既然如此,何不走出自己的舒适区,迎接新挑战! 好了,闲话不多说,开始我的shell学习之旅. (ps:阅读本文需要熟悉一些linux基本命令:本文给出的都是简单shell脚本的模板,开门见山,一步到位.我觉得这是快速学习的一种非常好的方法.) 1.一个简单的…
/etc/shells [root@localhost ~]# more /etc/shells /bin/sh /bin/bash /sbin/nologin /usr/bin/sh /usr/bin/bash /usr/sbin/nologin /bin/tcsh /bin/csh echo -e 相关转义符 \\ 输入\ \a 输出警告音 \b 退格,即向左删除一个字符 \c 取消输出行末的换行符,和-n选项一致 \e Esc \f 换页符 \n 换行 \r 回车 \t 制表,即Tab \…
最近再搞postgres的数据同步,需要模拟异地机房有带宽限制时的同步效果,所以想要限制一下两台机器之间的网速. ts命令功能很强,同时也好难理解和使用,经常浪费了好半天还是搞不定. 这里分享一个简单好用的脚本,只要设置一下目标ip和需要限制的速率,执行下就可以了: #!/bin/bash # # tc uses the following units when passed as a parameter. # kbps: Kilobytes per second # mbps: Megabyt…
原文:http://www.heyuan110.com/2015/06/16/Mac%E6%B5%8B%E8%AF%95%E6%A8%A1%E6%8B%9F%E6%85%A2%E7%BD%91%E9%80%9F/ 先普及一下Kb,KB,Kbps,Mb,Mbps等一些列概念 1Byte = 8bit1KB (Kilobyte 千字节)=1024Byte1MB (Megabyte,兆字节,简称“兆”)=1024KB 1GB (Gigabyte,吉字节,又称“千兆”)=1024MB1TB (Terab…
先普及一下Kb,KB,Kbps,Mb,Mbps等一些列概念 1Byte = 8bit 1KB (Kilobyte 千字节)=1024Byte 1MB (Megabyte,兆字节,简称“兆”)=1024KB 1GB (Gigabyte,吉字节,又称“千兆”)=1024MB 1TB (Terabyte,太字节,或百万兆字节)=1024GB 1KB=1024B 1MB=1024KB 1GB=1024MB 1TB=1024GB Kb和KB的区别:计算机中的信息都是二进制的0和1来表示,其中每一个0或1被…
前面介绍了如何使用badboy录制jmeter脚本,以及如何导入脚本并进行测试 这里介绍下手动创建测试用例,主要步骤如下: 1.创建线程组 第一次打开Jmeter只有一个测试计划,右键“测试计划”选择“添加” -> “Threads” -> “线程组”,即可得到如下配置界面: 名称:即这个线程组的名字 注释:对这个线程组的注释 在取样器执行错误后的操作:根据需要勾选后续执行情况,一般都会选择继续 线程数:即总的测试次数(模拟的用户操作) Ramp-up period:执行完所有线程数所用的时间…
最近在学习网络爬虫,完成了一个比较简单的python网络爬虫.首先为什么要用爬虫爬取信息呢,当然是因为要比人去收集更高效. 网络爬虫,可以理解为自动帮你在网络上收集数据的机器人. 网络爬虫简单可以大致分三个步骤: 第一步要获取数据, 第二步对数据进行处理, 第三步要储存数据. 获取数据的时候这里我用到了python的urllib标准库,它是python中非常方便抓取网页内容的一个模块. 具体为: 这里我要爬取的是电影天堂一个电影页面的电影名称,日期等数据. from urllib import…
首先打开浏览器,在百度上搜索“Badboy ”,默认搜索到的第一个就是官网地址: 1 也可以在其他软件下载网址上进行下载 2 点击进入后,官网左侧菜单中有“download”字样,或者官网右侧顶部也有一个“download”字样,点击进入就是注册界面 3 点击download进入后,可以不注册进行下载,点击“continue”进入下载界面 4 点击“continue”后,就可以看到当前Badboy最新版本下载,对应版本点击download进行下载 5 下载中,下载后.…