一、简介

美国国家漏洞数据库收集了操作系统,应用软件的大量漏洞信息,当有新的漏洞出现时,它也会及时发布出来.

由于信息量巨大,用户每次都需要到它的网站进行搜索,比较麻烦.如果能有个工具,每天自动分析它发布的漏洞数据库,如果发现有所需要的新漏洞信息,通过邮件自动发送给公司的系统或者安全管理员就好了.

下面我写的这个工具就是起到这个作用的.图片是工具自动发送的邮件截图:

它每天都会根据用户设置的关键字自动抓取 NVD 数据,然后和前一天抓取的数据进行对比分析,当发现今天有新的数据时就发送邮件给用户,否则不发送.

二、效果截图

三、源代码

#!/usr/bin/perl -w
#hahp@qq.com
use 5.10.;
use strict;
use LWP::Simple;
use Net::SMTP;
use MIME::Base64;
use Encode qw/ decode encode /; my $REC_DIR = '/home/hupeng/nvd';
my @query_keywords = qw/ kernel tomcat apache spring /; my $TO_DAY = `date +%Y-%m-%d`;
my $LAST_DAY = `date +%Y-%m-%d -d '-1 days'`;
my $THIS_MONTH = `date +%m -d '-1 months'`;
my $NEXT_MONTH = `date +%m`;
my $THIS_YEAR = `date +%Y`;
my $NEXT_YEAR = `date +%Y -d '+1 months'`; chomp($TO_DAY);
chomp($LAST_DAY);
chomp($THIS_MONTH);
chomp($THIS_YEAR);
chomp($NEXT_MONTH);
chomp($NEXT_YEAR);
$THIS_MONTH =~ s/^+//g; my $nvdfile_lastday = "$REC_DIR/nvd_$LAST_DAY.txt";
my $nvdfile_today = "$REC_DIR/nvd_$TO_DAY.txt"; my $nvd_url_pre = 'http://web.nvd.nist.gov/view/vuln/detail?vulnId=';
#my $sev_base = 'MEDIUM_HIGH'; my $theSmtpServer = 'XXXX';
my $theSmtpUser = 'XXXX';
my $theSmtpPasswd = 'XXXXX';
my $theSmtpSend = 'XXXXX';
my @theSmtpTo = ('hupeng@test2.com','hupeng@test.com');
my $theSmtpSubject = 'NVD 新记录 '.$TO_DAY;
my $query_keywords_str = &arr2str0(@query_keywords);
my $theSmtpBody = '<p>NVD 新记录</p><br><p>关键字:'.$query_keywords_str.'</p><br>'; sub str2arr {
my ($str) = @_;
$str =~ s/^\n|\n$//g;
my @arr = split /\n/,$str;
@arr = sort(@arr);
#@arr = keys %{{ map { $_ => 1 } @arr }};
return @arr;
} sub arr2str {
my @arr = @_;
my $str = '';
@arr = sort(@arr);
foreach(@arr){
$str = $str.$_."\n";
}
return $str;
} sub arr2str0 {
my @arr = @_;
my $str = '';
@arr = sort(@arr);
foreach(@arr){
$str = $str.$_.', ';
}
$str =~ s/,\ $//g;
return $str;
} sub getContent {
my ($query_keywords) = @_;
my @content = (); foreach my $query_keyword (@query_keywords){
#my $url = "http://web.nvd.nist.gov/view/vuln/search-results?adv_search=true\&cves=on\&query=$query_keyword\&pub_date_start_month=$start_month\&pub_date_start_year=$start_year\&cvss_sev_base=$sev_base\&cve_id=";
#my $url = "http://web.nvd.nist.gov/view/vuln/search-results?adv_search=true\&cves=on\&query=$query_keyword";
my $url = "http://web.nvd.nist.gov/view/vuln/search-results?adv_search=true\&cves=on\&query=$query_keyword\&pub_date_start_month=$THIS_MONTH\&pub_date_start_year=$THIS_YEAR\&cve_id="; my $tmpStr = get($url);
my @tmpArr = &str2arr($tmpStr);
$tmpStr = '';
foreach(@tmpArr){
my $str = $_;
chomp($str);
$str =~ s/\s+//g;
if( $str =~ m/BodyPlaceHolder_cplPageContent_plcZones_lt_zoneCenter_VulnerabilitySearchResults_VulnResultsRepeater_[\w]+(Anchor_.*$)/ ){
push(@content,$query_keyword.$."\n");
}
}
@content = keys %{{ map { $_ => } @content }};
@content = sort(@content);
@tmpArr = ();
}
return @content;
} sub getNvd {
my ($nvd_file) = @_;
my $maxnvd = '';
my @nvds = ();
my %result = ('maxnvd'=>'','nvds'=>[]);
if( open(FILE, "$nvd_file") ){
while(<FILE>){
push(@nvds, $_);
}
close FILE;
foreach(@nvds){
if( $_ gt $maxnvd ){
$maxnvd = $_;
}
}
}
$result{'maxnvd'} = $maxnvd;
$result{'nvds'} = [@nvds];
@nvds = ();
return %result;
} sub putNvd {
my ($content,$nvd_file) = @_;
if ( open(FILE, "> $nvd_file") ){
foreach (@$content){
if ($_ =~ m/[\w-]+Anchor_[\d]+">([\w-]+)<\/a>/){
print FILE $1."\n";
}
}
close FILE;
}
} sub getNewNvdRds {
my ($maxNvd_lastday,$nvdsToday,$content) = @_;
my @newNvds = ();
foreach (@{$nvdsToday}){
my $nvd = '';
if( $_ gt $maxNvd_lastday){
my $str = $_;
chomp($str);
foreach my $ln1 (@{$content}){
if( $ln1 =~ m/^([\w-]+Anchor_[\d]+\">)$str<\/a>$/ ){
my $nvdID = $1;
foreach my $ln2 (@{$content}){
if( $ln2 =~ m/^$nvdID([\d.]+)<\/a>([\w]+)$/ ){
$nvd = '<a href="'.$nvd_url_pre.$str.'">'.$str.'</a> CVSS Severity: '.encode('UTF-8',$1).' '.encode('UTF-8',$2).'<br>';
}
}
}
}
push(@newNvds,$nvd);
}
}
return @newNvds;
} # get max value of last day
my %tmpHsh = ();
%tmpHsh = &getNvd($nvdfile_lastday);
my $maxNvd_lastday = $tmpHsh{'maxnvd'}; # get content of today
# nvd 记录的详细信息
my @content = &getContent(@query_keywords); # put values of today
&putNvd([@content],$nvdfile_today); # get max value of today
%tmpHsh = &getNvd($nvdfile_today);
my $maxNvd_today = $tmpHsh{'maxnvd'}; # get all values of today
my @nvdsToday = @{$tmpHsh{'nvds'}}; %tmpHsh = (); # find new values
# 排版后新记录的详细信息
my @newNvdRds = &getNewNvdRds($maxNvd_lastday,[@nvdsToday],[@content]); # send email
my $count = @newNvdRds;
if( $count ){
$theSmtpBody .= &arr2str(@newNvdRds);
$theSmtpBody .= '<br><br>'.$TO_DAY.'<br><br>'; my $theSmtp = Net::SMTP->new($theSmtpServer,Timeout=>10);
$theSmtp->auth($theSmtpUser,$theSmtpPasswd);
$theSmtp->mail($theSmtpSend);
$theSmtp->to(@theSmtpTo);
$theSmtp->data();
$theSmtp->datasend("To: @theSmtpTo\n");
$theSmtp->datasend("Content-Type:text/html;charset=UTF-\n");
$theSmtp->datasend("Subject:=?UTF-?B?".encode_base64($theSmtpSubject, '')."?=\n\n");
$theSmtp->datasend("\n");
$theSmtp->datasend($theSmtpBody);
$theSmtp->dataend();
$theSmtp->quit;
}

[工具开发] Perl 爬虫脚本--从美国国家漏洞数据库抓取实时信息的更多相关文章

  1. 网络爬虫:使用Scrapy框架编写一个抓取书籍信息的爬虫服务

      上周学习了BeautifulSoup的基础知识并用它完成了一个网络爬虫( 使用Beautiful Soup编写一个爬虫 系列随笔汇总 ), BeautifulSoup是一个非常流行的Python网 ...

  2. 网络爬虫: 从allitebooks.com抓取书籍信息并从amazon.com抓取价格(3): 抓取amazon.com价格

    通过上一篇随笔的处理,我们已经拿到了书的书名和ISBN码.(网络爬虫: 从allitebooks.com抓取书籍信息并从amazon.com抓取价格(2): 抓取allitebooks.com书籍信息 ...

  3. scrapy爬虫学习系列五:图片的抓取和下载

    系列文章列表: scrapy爬虫学习系列一:scrapy爬虫环境的准备:      http://www.cnblogs.com/zhaojiedi1992/p/zhaojiedi_python_00 ...

  4. 网络爬虫: 从allitebooks.com抓取书籍信息并从amazon.com抓取价格(2): 抓取allitebooks.com书籍信息及ISBN码

    这一篇首先从allitebooks.com里抓取书籍列表的书籍信息和每本书对应的ISBN码. 一.分析需求和网站结构 allitebooks.com这个网站的结构很简单,分页+书籍列表+书籍详情页. ...

  5. 网络爬虫: 从allitebooks.com抓取书籍信息并从amazon.com抓取价格(1): 基础知识Beautiful Soup

    开始学习网络数据挖掘方面的知识,首先从Beautiful Soup入手(Beautiful Soup是一个Python库,功能是从HTML和XML中解析数据),打算以三篇博文纪录学习Beautiful ...

  6. (9)分布式下的爬虫Scrapy应该如何做-关于ajax抓取的处理(一)

    转载请注明出处:http://www.cnblogs.com/codefish/p/4993809.html 最近在群里频繁的被问到ajax和js的处理问题,我们都知道,现在很多的页面都是用动态加载的 ...

  7. python3爬虫再探之豆瓣影评数据抓取

    一个关于豆瓣影评的爬虫,涉及:模拟登陆,翻页抓取.直接上代码: import re import time import requests import xlsxwriter from bs4 imp ...

  8. 【asp.net爬虫】asp.NET分页控件抓取第n页数据 javascript:__doPostBack

    最近在模拟HTTP请求抓取数据,但是服务器是asp.net开发的 分页控件代码 <tr> <td align="left">共&nbsp210&am ...

  9. Python爬虫入门教程 29-100 手机APP数据抓取 pyspider

    1. 手机APP数据----写在前面 继续练习pyspider的使用,最近搜索了一些这个框架的一些使用技巧,发现文档竟然挺难理解的,不过使用起来暂时没有障碍,估摸着,要在写个5篇左右关于这个框架的教程 ...

随机推荐

  1. 2016 ACM/ICPC Asia Regional Qingdao Online 1001/HDU5878 打表二分

    I Count Two Three Time Limit: 3000/1000 MS (Java/Others)    Memory Limit: 32768/32768 K (Java/Others ...

  2. Java获得文件的创建时间(精确到秒)

    jni C/C++ 头文件:MyFileTime.h C/C++ code /* DO NOT EDIT THIS FILE - it is machine generated */#include ...

  3. Oracle语句

    分页查询: select rn,last_name,salary from( select rownum rn,last_name,salary from( select last_name,sala ...

  4. tyvj1011 - 传纸条 ——DP

    题目链接:https://www.tyvj.cn/Problem_Show.aspx?id=1011 状态转移方程: f[k,x1,x2] = max(f[k-1,x1,x2],f[k-1,x1-1, ...

  5. c 函数及指针学习 6

    不完整声明 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 /* 方法一   */ struct tag_a{ ...

  6. CSS--滚动条设置;

    CSS滚动条实现步骤及美化小技巧 1.overflow-y : 设置当对象的内容超过其指定高度时如何管理内容:overflow-x : 设置当对象的内容超过其指定宽度时如何管理内容. 参数:visib ...

  7. 转:SQL:外连接on条件与where条件的区别

    原文地址:http://hi.baidu.com/benben1006/blog/item/187deb77bc0e5319b151b974.html 数据库在通过连接两张或多张表来返回记录时,都会生 ...

  8. vsftpd搭建及配置参数

    一.FTP简介 FTP:File Transger Protocol(文件传输协议) 文件共享服务:工作在应用层 NFS:Network File System(RPC:Remote Procedur ...

  9. IOS中货币高精度要求使用NSDecialNumber、

    float a = 0.01;        int b =99999999;        double c = 0.0;        c = a * b; //如果单纯的使用double会导致数 ...

  10. Linux-dd命令详解【转】

    转自http://www.cnblogs.com/dkblog/archive/2009/09/18/1980715.html   Linux-dd命令详解 dd 是 Linux/UNIX 下的一个非 ...