Win32学了一段时间了,跟着杨老师的脚步,准备学习MFC,因此最近几天在复习C++,于是发现有将近一周没写博文了…… 今天来写一个较为简单.但是比较有意思的东西 不知大家在理发店理发的时候注意到一个奇观没: 理发店一般都有两面对立的镜子,你仔细一看会发现,两面镜子里面的成像逐渐缩小,并且居中排列,很有意思 盗梦空间中也有一个类似的场景,我截了一个图: yes,今天就来做一个这样的效果,只不过是抓的屏幕 好吧,先来看看程序运行效果,来对比一下: 下面进入主题,剖析实现细节,主要分两大步: (1)…
     昨天的博文写了定时记录操作系统行为,其实说白了就是抓取了击键的记录和对应窗口的标题栏,而很多应用程序标题栏又包含当时记录的文件路径和文件名,用这种方式可以大致记录操作了哪些程序,打开了哪些文件,以及敲击了哪些按键.事实上这样记录操作系统的行为显得相对单薄一点,因为记录的内容不太形象,对于新手来说太过于隐晦了,对于人类来说,图像会比文字更加有利于用户理解.当操作系统不方便装屏幕记录软件,但又需要看已经登录用户在干什么的时候,用PowerShell的脚本来实现定时抓取图像的方式记录操作,查…
关于如何拷贝屏幕并保存,这里已经有现成的例子,我也不必去Copy人家了,我一向不喜欢Copy.这里有一个完整的例子,可以看看. http://msdn.microsoft.com/EN-US/library/windows/desktop/dd183402(v=vs.85).aspx 把屏幕的内容复制到窗口的客户区域中,通常会用BitBlt函数,函数的功能是把一块颜色数据从一个DC复制到另一个DC,这个我也不知道怎么翻译才能通俗一点.这样说吧,就是从源设备上下文的图形表面截取一个矩形区域并且复制…
主要觉得往kindle里加书籍太麻烦了,要下载下来,还要通过邮件发送,特别一些网页文字版的书籍没办法放到kindle里,所以想着还不如自己动手丰衣足食,写一个程序直接抓取网页内容,制作成书籍,然后自动发送到kindle里. 程序首先操作简单“一键推送”,还有就是书籍要带目录. 先做了个winform版的,有时间再编写个Web版的. 程序相关的技术: 1.使用NSoup分析网页 2.爬虫规则设计 3.多线程爬网页 4.生成txt文本和pdf文件 5.使用邮件推送到自己的kindle设备 程序界面效…
一.实现思路 1.使用Java.net.URL对象,绑定网络上某一个网页的地址 2.通过java.net.URL对象的openConnection()方法获得一个HttpConnection对象 3.通过HttpConnection对象的getInputStream()方法获得该网络文件的输入流对象InputStream 4.循环读取流中的每一行数据,并由Pattern对象编译的正则表达式区配每一行字符,取得email地址 package cn.hyj; import java.io.Buffe…
HBITMAP GetScreenBmp() { HWND hwnd = ::GetDesktopWindow(); HDC hsrc = ::GetDC(hwnd); HDC hmemdc = ::CreateCompatibleDC(hsrc); RECT rc; ::GetWindowRect(hwnd,&rc); SIZE sz;sz.cx=rc.right-rc.left;sz.cy=rc.bottom-rc.top; HBITMAP hbmp = ::CreateCompatible…
以前看到网上别人说写程序抓取网页图片的,感觉挺神奇,心想什么时候我自己也写一个抓取图片的方法! 刚好这两天没什么事,就参考了网上一个php抓取图片代码,重点借鉴了 匹配img标签和其src属性正则的写法,封装了一个php远程抓取图片的类,测试了一下,速度还凑合, 两分钟从 开源中国 抓取了 110多张图片 代码如下: <?php /** * 一个用于抓取图片的类 * * @package default * @author WuJunwei */ class download_image { p…
1. 引言 最近老师有一个需求,就是想要抓取实时的矢量交通流量数据来做分析,类似于百度地图,高德地图的"实时路况"那种.平时的网络抓取工作一般是抓取网页上现成的数据,但是交通流量数据只有栅格的切片,没有矢量数据,而且数据购买的费用一年就好几十W,基本不可能拿得出.实验室的师兄们都有事情忙,所以这个苦逼的任务自然摊派到我的头上. 图1. 高德和百度地图的实时路况数据 因为网络上现成的数据只有切片数据,因此这个问题就转化为了如何将切片数据矢量化.如果直接用ArcGIS Engine将栅格数…
帮朋友抓了一些代理IP,并根据测试联的通性,放在了不通的文件夹下.特将源码分享 注意: 1,环境Python3.5 2,安装BeautifulSoup4  requests 代码如下: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 5…
上一篇多文章,是二级目录,根目录"小说",二级目录"作品名称",之后就是小说文件. 本篇改造了部分代码,将目录设置为根目录->作者目录->作品目录->作品章节.txt. 但这并不是本章内容当重点,重点是使用这个爬虫程序抓取当时候,经常会因为网络丢包等原因导致程序中断, 本来想着是循环获取网站状态,然后重新发起请求,结果好像也没什么用.然后在虫师讲selenium的书中看到了多线程,正好就实验下,结果发现,速度很快,cool! 以下代码基本摘自虫师的…