前言

上一篇介绍了双色球走势图是怎么实现的,这一篇介绍怎么实现爬虫所有的双色球历史数据,也可以同步分享怎么同步福彩3D数据。采用的C#来实现的。

同步双色球的地址:https://datachart.500.com/ssq/history/newinc/history.php?start={0}&end={1} 

同步福彩3D的地址:https://datachart.500.com/sd/history/inc/history.php?start={0}&end={1}

上一篇介绍走势图的实现:https://www.cnblogs.com/luoyuhao/p/13887935.html

打开网站显示的数据如下:

实现爬虫的过程

创建接收存储双色球历史数据的table

抓取网站上的html ,再通过html 去解析相应的数据。

通过以上截取后就只剩下需要的双色球的历史数据了,再去截取tr td数据,就相应能到得到相应的数据了,是不是很简单的一件事呀!

解析tr所有数据

        /// <summary>
/// 双色球TR
/// </summary>
/// <param name="wnRepo"></param>
/// <param name="content"><tbody></tbody>之间的内容</param>
private void ResolveSSQTr(string content)
{
string trContent = string.Empty;
Regex regex = new Regex("<tr class=\"t_tr1\">");
//在<tbody></tbody>之间的内容搜索所有匹配<tr>的项
MatchCollection matches = regex.Matches(content);
foreach (Match item in matches)
{
//如果当前匹配项的下一个匹配项的值不为空
if (!string.IsNullOrEmpty(item.NextMatch().Value))
{
trContent = content.Substring(item.Index, item.NextMatch().Index - item.Index);
}
//最后一个<tr>的匹配项
else
{
trContent = content.Substring(item.Index, content.Length - item.Index);
}
DataRow dr = ssqdt.NewRow();
ResolveSSQTd(ref dr, trContent); ssqdt.Rows.Add(dr);
}
}

解析所有td内容

 /// <summary>
/// 双色球TD
/// </summary>
/// <param name="dr"></param>
/// <param name="trContent"></param>
private void ResolveSSQTd(ref DataRow dr, string trContent)
{
List<int> redBoxList = null;
//匹配期号的表达式
string patternQiHao = "<td>";
Regex regex = new Regex(patternQiHao);
Match qhMatch = regex.Match(trContent);
dr["QiHao"] = trContent.Substring(qhMatch.Index + 13 + patternQiHao.Length, 5); if (int.Parse(trContent.Substring(qhMatch.Index + 13 + patternQiHao.Length, 5)) % 2 == 0)
{
dr["Type"] = "双期";
}
else
{
dr["Type"] = "单期";
} //存放匹配出来的红球号码
redBoxList = new List<int>();
//匹配红球的表达式
string patternChartBall = "<td class=\"t_cfont2\">";
regex = new Regex(patternChartBall);
MatchCollection rMatches = regex.Matches(trContent);
foreach (Match r in rMatches)
{
redBoxList.Add(Convert.ToInt32(trContent.Substring(r.Index + patternChartBall.Length, 2)));
} //匹配红球的表达式
patternChartBall = "<td class=\"t_cfont4\">";
regex = new Regex(patternChartBall);
rMatches = regex.Matches(trContent); foreach (Match r in rMatches)
{
dr["B"] = Convert.ToInt32(trContent.Substring(r.Index + patternChartBall.Length, 2));
break;
} patternChartBall = @"\d{4}-\d{2}-\d{2}";
regex = new Regex(patternChartBall);
rMatches = regex.Matches(trContent);
foreach (Match r in rMatches)
{
DateTime dt = Convert.ToDateTime(r.Value);
dr["OpenDate"] = dt;
dr["Week"] = CaculateWeekDay(dt.Year, dt.Month, dt.Day);
} //排序红球号码
redBoxList.Sort();
//红球号码
dr["R1"] = redBoxList[0];
dr["R2"] = redBoxList[1];
dr["R3"] = redBoxList[2];
dr["R4"] = redBoxList[3];
dr["R5"] = redBoxList[4];
dr["R6"] = redBoxList[5];
dr["HTML"] = trContent;
}

保存所解析的数据保存到SQLite

if (!Directory.Exists(tempPath))//判断文件夹是否存在
Directory.CreateDirectory(tempPath);//创建文件夹在根目录下
string _db = System.IO.Path.Combine(tempPath, "cpdb.dll");
SQLiteHelper helper = new SQLiteHelper(_db);
OperResult oper = new OperResult(); helper.ExecuteNonQuery(string.Format("drop table if exists {0}", ssqtableName), _db); string msg = string.Format("create table if not exists {0} (\r\n", ssqtableName);
for (int i = 0; i < ssqdt.Columns.Count; i++)
{
msg += string.Format("{0} {1},\r\n", ssqdt.Columns[i].ColumnName, helper.TypeToSqliteType(ssqdt.Columns[i].DataType));
}
msg = msg.Remove(msg.LastIndexOf(",\r\n"), 3);
msg += ")"; oper = helper.ExecuteNonQuery(msg, _db);
oper = helper.SaveDataTable(ssqdt, ssqtableName);

获取网页内容的方法

      public static string HttpGet(string url,string encoding)
{
WebRequest request = HttpWebRequest.Create(url);
WebResponse response = request.GetResponse(); Stream stream = response.GetResponseStream();
StreamReader reader = new StreamReader(stream, Encoding.GetEncoding(encoding));
string content = reader.ReadToEnd();
return content;
}

基姆拉尔森计算公式计算日期

/// <summary>
/// 基姆拉尔森计算公式计算日期
/// </summary>
/// <param name="y">年</param>
/// <param name="m">月</param>
/// <param name="d">日</param>
/// <returns>星期几</returns>
protected string CaculateWeekDay(int y, int m, int d)
{
if (m == 1 || m == 2)
{
m += 12;
y--;
//把一月和二月看成是上一年的十三月和十四月,例:如果是2004-1-10则换算成:2003-13-10来代入公式计算。
}
int week = (d + 2 * m + 3 * (m + 1) / 5 + y + y / 4 - y / 100 + y / 400) % 7;
string weekstr = "";
switch (week)
{
case 0: weekstr = "周一"; break;
case 1: weekstr = "周二"; break;
case 2: weekstr = "周三"; break;
case 3: weekstr = "周四"; break;
case 4: weekstr = "周五"; break;
case 5: weekstr = "周六"; break;
case 6: weekstr = "周日"; break;
}
return weekstr;
}

保存完后,显示的形式就是以DLL结尾的文件了,如下图:

怎么读取保存的双色球数据

   string _db = System.IO.Path.Combine(tempPath, "cpdb.dll");
SQLiteHelper helper = new SQLiteHelper(_db);
OperResult oper = new OperResult();
oper = helper.GetDataSet(string.Format("select * from {0}", ssqtableName), _db);
if (oper.State == 1 && oper.DataSet != null && oper.DataSet.Tables.Count > 0 && oper.DataSet.Tables[0].Rows.Count > 0)
{
ViewBag.QiHao = "第" + oper.DataSet.Tables[0].Rows[0]["QiHao"] + "期";
ViewBag.B = oper.DataSet.Tables[0].Rows[0]["B"].ToString().Length == 1 ? "0" + oper.DataSet.Tables[0].Rows[0]["B"].ToString() : oper.DataSet.Tables[0].Rows[0]["B"].ToString();
ViewBag.R1 = oper.DataSet.Tables[0].Rows[0]["R1"].ToString().Length == 1 ? "0" + oper.DataSet.Tables[0].Rows[0]["R1"].ToString() : oper.DataSet.Tables[0].Rows[0]["R1"].ToString();
ViewBag.R2 = oper.DataSet.Tables[0].Rows[0]["R2"].ToString().Length == 1 ? "0" + oper.DataSet.Tables[0].Rows[0]["R2"].ToString() : oper.DataSet.Tables[0].Rows[0]["R2"].ToString();
ViewBag.R3 = oper.DataSet.Tables[0].Rows[0]["R3"].ToString().Length == 1 ? "0" + oper.DataSet.Tables[0].Rows[0]["R3"].ToString() : oper.DataSet.Tables[0].Rows[0]["R3"].ToString();
ViewBag.R4 = oper.DataSet.Tables[0].Rows[0]["R4"].ToString().Length == 1 ? "0" + oper.DataSet.Tables[0].Rows[0]["R4"].ToString() : oper.DataSet.Tables[0].Rows[0]["R4"].ToString();
ViewBag.R5 = oper.DataSet.Tables[0].Rows[0]["R5"].ToString().Length == 1 ? "0" + oper.DataSet.Tables[0].Rows[0]["R5"].ToString() : oper.DataSet.Tables[0].Rows[0]["R5"].ToString();
ViewBag.R6 = oper.DataSet.Tables[0].Rows[0]["R6"].ToString().Length == 1 ? "0" + oper.DataSet.Tables[0].Rows[0]["R6"].ToString() : oper.DataSet.Tables[0].Rows[0]["R6"].ToString();
}

以上即完成双色球历史数据的爬虫和保存数据的全部过程,思路非常清晰,而且方法容易,这样就不需要调用收费的接口了,为开发双色球走势图打好良好的基础 ,大家有没有觉得非常容易呀!其实爬虫的方法很多,希望跟大家一起交流学习了,也可以通过正则表达是来获取相应的数据,也可以用第三方工具去解析更简单快捷,曾经我也做过相应的爬虫,还挺好玩的。

爬虫福彩3D数据

同样显示创建接收数据的表结构来接收数据。

解析tr数据

string trContent = string.Empty;
Regex regex = new Regex("<tr>");
//在<tbody></tbody>之间的内容搜索所有匹配<tr>的项
MatchCollection matches = regex.Matches(content);
foreach (Match item in matches)
{
//如果当前匹配项的下一个匹配项的值不为空
if (!string.IsNullOrEmpty(item.NextMatch().Value))
{
trContent = content.Substring(item.Index, item.NextMatch().Index - item.Index);
}
//最后一个<tr>的匹配项
else
{
trContent = content.Substring(item.Index, content.Length - item.Index);
}
//DataRow dr = sddt.NewRow(); ResolveSDSJTd(trContent); //sddt.Rows.Add(dr);
}

解析td数据

 private void ResolveSDSJTd(string trContent)
{
string patternChartBall = @"[1-9]\d{6}";
Regex regex = new Regex(patternChartBall);
MatchCollection rMatches = regex.Matches(trContent);
string qihao = "";
foreach (Match r in rMatches)
{
qihao = r.Value;
break;
} patternChartBall = "<td class=\"chartBall01\" width=18>";
regex = new Regex(patternChartBall);
rMatches = regex.Matches(trContent);
List<int> redBoxList = new List<int>(); foreach (Match r in rMatches)
{
int xx = int.Parse(trContent.Substring(r.Index + patternChartBall.Length, 1));
redBoxList.Add(xx);
} if (!string.IsNullOrEmpty(qihao))
{
DataRow[] dr = sddt.Select(string.Format("QiHao='{0}'", qihao));
if (dr.Length > 0)
{
dr[0]["R4"] = redBoxList[0];
dr[0]["R5"] = redBoxList[1];
dr[0]["R6"] = redBoxList[2];
}
}
}

保存数据

if (!Directory.Exists(tempPath))//判断文件夹是否存在
Directory.CreateDirectory(tempPath);//创建文件夹在根目录下
string _db = System.IO.Path.Combine(tempPath, "sddb.dll");
SQLiteHelper helper = new SQLiteHelper(_db);
OperResult oper = new OperResult(); helper.ExecuteNonQuery(string.Format("drop table if exists {0}", sdtableName), _db); string msg = string.Format("create table if not exists {0} (\r\n", sdtableName);
for (int i = 0; i < sddt.Columns.Count; i++)
{
msg += string.Format("{0} {1},\r\n", sddt.Columns[i].ColumnName, helper.TypeToSqliteType(sddt.Columns[i].DataType));
}
msg = msg.Remove(msg.LastIndexOf(",\r\n"), 3);
msg += ")"; oper = helper.ExecuteNonQuery(msg, _db);
oper = helper.SaveDataTable(sddt, sdtableName);

以上即可完成对福彩3D数据的爬虫,还能爬取福彩3D试机号,这些数据一些就能全部爬取完了,非常的快捷简单方便。

双色球走势图如下:

上一篇文章有介绍怎么去实现双色球走势图,这里就不再过多介绍了,这一篇主要是介绍怎么爬虫双色球和福彩3D数据。

详细介绍:https://www.cnblogs.com/luoyuhao/p/13887935.html

后记

为了做好爬虫数据和走势图,爬虫技术只能为做好走势图是一个前提条件,两个步骤是相辅相成的,现在这两个技术都具备了,只是不断完善技术才能做出更强大的走势图的网站。以上只是纯技术交流和学习,欢迎大家一起留言交流,共同学习进步。

爬虫双色球所有的历史数据并保存到SQLite的更多相关文章

  1. Android把图片保存到SQLite中

    1.bitmap保存到SQLite 中 数据格式:Blob db.execSQL("Create table " + TABLE_NAME + "( _id INTEGE ...

  2. Python scrapy爬虫数据保存到MySQL数据库

    除将爬取到的信息写入文件中之外,程序也可通过修改 Pipeline 文件将数据保存到数据库中.为了使用数据库来保存爬取到的信息,在 MySQL 的 python 数据库中执行如下 SQL 语句来创建 ...

  3. Python爬虫中文小说网点查找小说并且保存到txt(含中文乱码处理方法)

    从某些网站看小说的时候经常出现垃圾广告,一气之下写个爬虫,把小说链接抓取下来保存到txt,用requests_html全部搞定,代码简单,容易上手. 中间遇到最大的问题就是编码问题,第一抓取下来的小说 ...

  4. node 爬虫 --- 将爬取到的数据,保存到 mysql 数据库中

    步骤一:安装必要模块 (1)cheerio模块 ,一个类似jQuery的选择器模块,分析HTML利器. (2)request模块,让http请求变的更加简单 (3)mysql模块,node连接mysq ...

  5. 吴裕雄--天生自然PYTHON爬虫:安装配置MongoDBy和爬取天气数据并清洗保存到MongoDB中

    1.下载MongoDB 官网下载:https://www.mongodb.com/download-center#community 上面这张图选择第二个按钮 上面这张图直接Next 把bin路径添加 ...

  6. scrapy 保存到 sqlite3

    scrapy 爬取到结果后,将结果保存到 sqlite3,有两种方式 item Pipeline Feed Exporter 方式一 使用 item Pipeline 有三个步骤 文件 pipelin ...

  7. python爬取当当网的书籍信息并保存到csv文件

    python爬取当当网的书籍信息并保存到csv文件 依赖的库: requests #用来获取页面内容 BeautifulSoup #opython3不能安装BeautifulSoup,但可以安装Bea ...

  8. python scrapy实战糗事百科保存到json文件里

    编写qsbk_spider.py爬虫文件 # -*- coding: utf-8 -*- import scrapy from qsbk.items import QsbkItem from scra ...

  9. jQuery切换网页皮肤保存到Cookie实例

    效果体验:http://keleyi.com/keleyi/phtml/jqtexiao/25.htm 以下是源代码: <!DOCTYPE html PUBLIC "-//W3C//D ...

随机推荐

  1. lua、python对比学习

    一.基本数据类型: lua:  nil(空).boolean(false和nil为假).number(数值).string(字符串).table(表).function(方法).thread (线程) ...

  2. LazySysAdmin 靶机渗透

    Vulnhub-LazySysAdmin 靶机渗透 发现六个开放的端口,分别为22,80,139,445,3306以及6667. 139/tcp open netbios-ssn Samba smbd ...

  3. ABP VNext从单体切换到微服务

    注:此处的微服务只考虑服务部分,不考虑内外层网关.认证等. ABP VNext从单体切换到微服务,提供了相当大的便利性,对于各模块内部不要做任何调整,仅需要调整承载体即可. ABP can help ...

  4. LinkedList,ArrayList,HashMap,TreeMap

    hashMap是无序的,TreeMap是有序的(hashmap是一个链表,而treemap实现了sortedmap()接口所以有序,其实现同时实现比较器) hashSet的底层是根据HashMap来存 ...

  5. 初识 Istio - 服务网格管理工具

    What is a service mesh(服务网格)? 微服务在国内流行已经多年了,大多数公司选择了基于容器化技术( Docker )以及容器编排管理平台 ( Kubernetes )落地微服务 ...

  6. html 网页美化--2

    html网页美化: 鼠标点击特效:爱心.爆炸烟花(有些特效在Chrome中无法实现,推荐使用edge) 背景樱花花瓣 鼠标滑动彩带 此代码也可以用于博客园主页美化(需要申请JS权限):复制到博客侧边栏 ...

  7. 060 01 Android 零基础入门 01 Java基础语法 06 Java一维数组 07 冒泡排序

    060 01 Android 零基础入门 01 Java基础语法 06 Java一维数组 07 冒泡排序 本文知识点:冒泡排序 冒泡排序 实际案例分析冒泡排序流程 第1轮比较: 第1轮比较的结果:把最 ...

  8. 给Python IDLE添加行号显示

    转载:https://blog.csdn.net/howard2005/article/details/104112297 文章目录一.引出问题1.Spyder编辑Python程序能显示行号2.Pyt ...

  9. 【题解】PTA-Little Bird

    Link 单调队列板子. 题目大意:一个点可以由距离它不超过\(k\)的点跳过来,如果那个点比它高就不需要花费体力,否则花费\(1\)的体力.问走到\(n\)的最小体力,多组询问. 显然的转移方程,设 ...

  10. DevOps元素周期表——1号元素 Gitlab

    DevOps元素周期表--1号元素 Gitlab GitLab 是由 GitLab Inc.开发,一款基于 Git 的完全集成的软件开发平台(fully integrated software dev ...