一、简介

  前面两篇文章我们围绕利用Python进行网络数据采集铺垫了很多内容,但光说不练是不行的,于是乎,本篇就将基于笔者最近的一项数据需求进行一次网络数据采集的实战;

二、网易财经股票数据爬虫实战

2.1 数据要求

  在本部分中,我们需要采集的是海南板块中所有股票在2012年6月29日的所有指标数据,我们爬取的平台是网易财经,以其中一个为例:

这是海南板块中的一支股票的历史数据页面http://quotes.money.163.com/trade/lsjysj_600221.html?year=2012&season=2,而我们需要的是海南板块所有只股票在2012年6月29日的这十个指标(开盘价、最高价、最低价、收盘价、涨跌额、涨跌幅(%)、成交量(手)、成交金额(万元)、振幅(%)、换手率(%)),下面,我们分步骤分解及实现整个过程:

2.2 步骤1:获取所有股票代码

  既然要利用到爬虫来自动化、批量化地获取数据,那我们需要依次爬取的html地址就需要预先创建好,先来观察网易财经历史数据页面的命名规则:

可以看出,网易财经的历史数据界面的命名规则为http://quotes.money.163.com/trade/lsjysj_ 加 股票代码 加 .html?year=年份&season=季度,因此对应我们的数据时期要求,年份取2012,季度取2,这样规则已经定好,唯一不确定的是股票代码,我从某金融软件下载了海南板块当前所有股票的交易数据(注意,该软件提供的历史交易数据维度不及网易财经网页中提供的丰富,所以我们才会需要爬取网页上的更丰富的内容),这些独立的文件所在文件夹如下:

我们利用R来提取所有股票中数字代码部分,然后保存在一个txt文件中,代码如下:

rm(list=ls())
setwd('C:\\Users\\windows\\Desktop\\stock') #获取当前目录下所有文件的名称及扩展名(注意该文件夹下不要放除海南股票数据外其他文件)
codes <- dir() #提取每一个文件名股票代码部分
C <- c()
for(i in :length(codes)){
C[i] <- substr(codes[i],,)
} df <- data.frame(codes=C) #写出为txt文件
write.table(df,file = 'codes.txt',row.names = F,col.names = F)

这样我们就得到了保存当前所有海南板块股票代码的txt文件:

接下来的工作就交给Python喽~

2.3 步骤2:目标网页地址的准备

  先来用Python读入codes.txt文件内的股票代码:

'''设置股票代码文件所在路近'''
path = 'C:\\Users\\windows\\Desktop\\stock\\' '''读入股票代码文件,并按行分割为列表形式'''
with open(path+'codes.txt') as c:
code = c.readlines() '''打印code的内容'''
print(code)

运行结果:

可以看出,换行符\n,双引号也被当成字符内容了,这时利用前面介绍的re.sub即可轻松将\n和双引号部分删掉:

import re

for i in range(len(code)):
code[i] = re.sub('\\n','',code[i])
code[i] = re.sub('"','',code[i]) print(code)

运行结果:

好了~,现在存放纯股票代码的列表已经生成,接下来需要做的就是生成我们的所有目标网址了:

htmls = []
'''利用字符串的拼接生成所有只股票对应的目标网页地址'''
for i in range(len(code)):
htmls.append('http://quotes.money.163.com/trade/lsjysj_'+code[i]+'.html?year=2012&season=2') print(htmls)

运行结果:

我们用浏览器随便打开一个网址试试:

2.4 步骤3:单个网址的连接与内容解析测试

  我们所有目标网页的网址都生成完毕,下面开始建立与这些网址的连接并进行解析,当然,因为会有很多未知的错误发生,因此我们先以其中一个网址为例先做常规的测试:

from urllib.request import urlopen
from bs4 import BeautifulSoup '''与第一个网址建立连接'''
html = urlopen(htmls[0]) '''打印BeautifSoup解析后的结果'''
print(BeautifulSoup(html))

运行结果:

可以看出,网页内容被成功的解析了出来,接下来我们来观察网页源代码,看看我们需要的内容藏在哪些标签下:

很轻易的就找到了,因为这个界面比较简单,如果遇到比较复杂的界面,可以在界面内ctrl+F的方式定位内容,根据我的观察,确定了变量名称和具体的日交易数据在标签tr下,但其每个数据都被包裹在一对标签内,因此,利用findAll()来对tr定位,得到返回值如下:

from urllib.request import urlopen
from bs4 import BeautifulSoup'''与第一个网址建立连接'''
html = urlopen(htmls[0]) obj = BeautifulSoup(html,'lxml') '''利用findAll定位目标标签及其属性'''
obj.findAll('tr')

运行结果:

可以看到,我们的确获取到包含目标内容的区块,但是其前后都充斥着大量无关信息,因此需要使用正则表达式来精确地裁剪出我们想要的部分,因为我们需要的是2012-06-29的数据,而日期又是每一行数据的开头部分,因此构造正则表达式:

2012-06-29.*2012-06-28

进行更精确地信息提取:

from urllib.request import urlopen
from bs4 import BeautifulSoup
import re '''与第一个网址建立连接'''
html = urlopen(htmls[0]) obj = BeautifulSoup(html,'lxml') '''利用findAll定位目标标签及其属性并返回其字符形式结果'''
text = str(obj.findAll('tr')) '''利用日期间隔为正则表达式规则粗略提取内容'''
target = re.findall('2012-06-29.*?2012-06-28',text)[0] print(target)

运行结果:

可以看出,除了<>内的标签内容外,其余的就是我们需要提取的内容,于是乎接下来我们继续利用re中的功能进行细致的提取:

'''将<>及内部标签内容替换为*以便下一步分割数据'''
token = re.sub('<.*?>','*',target) '''以至少出现1次的*作为分割依据'''
re.split('\*+',token)

运行结果:

可以看出,该列表第2个到第11个元素即为我们需要的10个属性的值,

re.split('\*+',token)[1:11]

运行结果:

2.5 步骤4:流水线式的全量爬虫任务构造

  上面我们已经针对某一个样本基本实现了整个任务的要求过程,下面我们将网络数据采集的过程应用到所有股票上(这里要注意下,因为股票代码是当下获取的,而其中有些股票在2012年6月29日尚未上市,即针对其生成的网址是无效的,下面的程序中我也据此附上了对应的处理方法,请注意):

import re
from bs4 import BeautifulSoup
from urllib.request import urlopen '''设置股票代码文件所在路近'''
path = 'C:\\Users\\windows\\Desktop\\stock\\' '''读入股票代码文件,并按行分割为列表形式'''
with open(path+'codes.txt') as c:
code = c.readlines() '''得到干净的股票代码列表'''
for i in range(len(code)):
code[i] = re.sub('\\n','',code[i])
code[i] = re.sub('"','',code[i]) htmls = []
'''利用字符串的拼接生成所有只股票对应的目标网页地址'''
for i in range(len(code)):
htmls.append('http://quotes.money.163.com/trade/lsjysj_'+code[i]+'.html?year=2012&season=2') '''利用循环完成所有页面的数据爬取任务''' '''创建保存对应股票数据的数据结构,这里选用字典,将股票代码作为键,对应交易数据作为值'''
data = {}
for i in range(len(code)): '''对2012年6月29日无交易数据的股票(即在爬取过程中会出错的网页)进行相应的处理'''
try: '''与每次循环纳入的目标网页建立连接爬回朴素的网页信息'''
html = urlopen(htmls[i]) '''对朴素的网页信息进行结构化解析'''
obj = BeautifulSoup(html,'lxml') '''利用findAll定位目标标签及其属性并返回其字符形式结果'''
text = str(obj.findAll('tr')) '''利用日期间隔为正则表达式规则粗略提取内容'''
target = re.findall('2012-06-29.*?2012-06-28',text)[0] '''将<>及内部标签内容替换为*以便下一步分割数据'''
token = re.sub('<.*?>','*',target) '''以至少出现1次的*作为分割依据分割为列表并返回需要的数据部分'''
content = re.split('\*+',token)[1:11] '''将得到的内容保存入字典中'''
data[code[i]] = content '''当目标网页不存在2012年6月29日的数据时,传入字典对应的值为错误解释'''
except Exception as e:
data[code[i]] = '无2012年6月29日数据' '''打印结果'''
print(data)

运行结果:

很顺利的,我们得到了字典形式的目标数据,下面利用一些基本操作将其整理为数据框的形式并保存为csv文件:

import pandas as pd
import numpy as np
import re stocks = {} for key,value in data.items():
if type(value) == list:
for i in range(len(value)):
value[i] = re.sub(',+','',value[i])
stocks[key] = list(map(float,value))
else:
pass index = []
df = [[] for i in range(10)] for key,value in stocks.items():
index.append(key)
for i in range(len(value)):
df[i].append(value[i]) D = pd.DataFrame({'股票代码':index,
'开盘价':df[0],
'最高价':df[1],
'最低价':df[2],
'收盘价':df[3],
'涨跌额':df[4],
'涨跌幅%':df[5],
'成交量(手)':df[6],
'成交金额(万元)':df[7],
'振幅':df[8],
'换手率(%)':df[9]}) '''设置保存路径'''
path = 'C:\\Users\\windows\\Desktop\\stock\\' D.to_csv(path+'海南股票数据.txt',encoding='ANSI',sep=' ',index=False)

生成的txt文件如下:

  以上就是本次实战的内容,更多爬虫的技巧和奇妙之处,今后会在更多篇实战中介绍,敬请期待!

(数据科学学习手札33)基于Python的网络数据采集实战(1)的更多相关文章

  1. (数据科学学习手札47)基于Python的网络数据采集实战(2)

    一.简介 马上大四了,最近在暑期实习,在数据挖掘的主业之外,也帮助同事做了很多网络数据采集的内容,接下来的数篇文章就将一一罗列出来,来续写几个月前开的这个网络数据采集实战的坑. 二.马蜂窝评论数据采集 ...

  2. (数据科学学习手札90)Python+Kepler.gl轻松制作时间轮播图

    本文示例代码及数据已上传至我的Github仓库https://github.com/CNFeffery/DataScienceStudyNotes 1 简介 Kepler.gl作为一款强大的开源地理信 ...

  3. (数据科学学习手札32)Python中re模块的详细介绍

    一.简介 关于正则表达式,我在前一篇(数据科学学习手札31)中已经做了详细介绍,本篇将对Python中自带模块re的常用功能进行总结: re作为Python中专为正则表达式相关功能做出支持的模块,提供 ...

  4. (数据科学学习手札85)Python+Kepler.gl轻松制作酷炫路径动画

    本文示例代码.数据已上传至我的Github仓库https://github.com/CNFeffery/DataScienceStudyNotes 1 简介 Kepler.gl相信很多人都听说过,作为 ...

  5. (数据科学学习手札110)Python+Dash快速web应用开发——静态部件篇(下)

    本文示例代码已上传至我的Github仓库https://github.com/CNFeffery/DataScienceStudyNotes 1 简介 这是我的系列教程Python+Dash快速web ...

  6. (数据科学学习手札136)Python中基于joblib实现极简并行计算加速

    本文示例代码及文件已上传至我的Github仓库https://github.com/CNFeffery/DataScienceStudyNotes 1 简介 我们在日常使用Python进行各种数据计算 ...

  7. (数据科学学习手札102)Python+Dash快速web应用开发——基础概念篇

    本文示例代码与数据已上传至我的Github仓库https://github.com/CNFeffery/DataScienceStudyNotes 1 简介 这是我的新系列教程Python+Dash快 ...

  8. (数据科学学习手札108)Python+Dash快速web应用开发——静态部件篇(上)

    本文示例代码已上传至我的Github仓库https://github.com/CNFeffery/DataScienceStudyNotes 1 简介 这是我的系列教程Python+Dash快速web ...

  9. (数据科学学习手札109)Python+Dash快速web应用开发——静态部件篇(中)

    本文示例代码已上传至我的Github仓库https://github.com/CNFeffery/DataScienceStudyNotes 1 简介 这是我的系列教程Python+Dash快速web ...

随机推荐

  1. Oracle10g使用$ORACLE_HOME/rdbms/admin/awrrpt.sql报错

    Enter value for report_name: Using the report name awrrpt_1_591_593.htmlselect output from table(dbm ...

  2. 如何查找Fiori UI上某个字段对应的后台存储表的名称

    今天微信群里有朋友问到这个问题. 如果是SAPGUI里的事务码,比如MM01,对于开发者来说这个任务非常容易完成. 比如我想知道下图"Sales Unit"这个字段的值到底保存在哪 ...

  3. CRUD全栈式编程架构之数据层的设计

    CodeFirst 一直以来我们写应用的时候首先都是创建数据库 终于在orm支持codefirst之后,我们可以先建模. 通过模型去创建数据库,并且基于codefirst可以实现方便的 实现数据库迁移 ...

  4. 【luogu P3627 [APIO2009]抢掠计划】 题解

    题目链接:https://www.luogu.org/problemnew/show/P3627 把点权转化到边权上去. #include <stack> #include <que ...

  5. 【luogu P3379 最近公共祖先】 模板

    题目链接:https://www.luogu.org/problemnew/show/P3379 倍增求lca,先存下板子,留个坑以后再填讲解. in 5 5 43 12 45 11 42 43 23 ...

  6. c# 常见验证邮箱、电话号码、日期等格式

    #region 验证邮箱验证邮箱 /**//// <summary> /// 验证邮箱 /// </summary> /// <param name="sour ...

  7. Unity3d-制作粒子光环特效

    http://blog.csdn.net/ozhangseno/article/details/70799611

  8. <head> 中的 JavaScript 函数

    <!DOCTYPE html><html><head><meta http-equiv="Content-Type" content=&q ...

  9. ContentProvider 、 ContentResolver 、 ContentObserver

    说说ContentProvider . ContentResolver . ContentObserver 之间的关系**a. ContentProvider 内容提供者,用于对外提供数据 b. Co ...

  10. spring boot整合mybatis查询数据库返回Map字段为空不返回解决

    1.出现问题原因原因1:mybatis的配置即mapper返回映射配置. 原因2:jackson的配置即@ResponseBody序列化配置. 2.解决方式步骤1:解决原因1 mybatis: con ...