日志分析_统计每日各时段的的PV,UV
第一步: 需求分析
需要哪些字段(时间:每一天,各个时段,id,url,guid,tracTime)
需要分区为天/时
PV(统计记录数)
UV(guid去重)
第二步: 实施步骤
建Hive表,表列分隔符和文件保持一至
Load数据到Hive表中
写HiveSql进行统计,将结果放入Hive另一张表中(数据清洗)
从Hive的另一张表中的数据导出到Mysql,使用sqoop
网站项目从Mysql读取这张表的信息
预期结果
日期 小时 PV UV
第三步: 实施
# 建源表(注意进入beeline用户名密码是linux的)
create database if not exists track_log;
use track_log;
create table if not exists yhd_source(
id string,
url string,
referer string,
keyword string,
type string,
guid string,
pageId string,
moduleId string,
linkId string,
attachedInfo string,
sessionId string,
trackerU string,
trackerType string,
ip string,
trackerSrc string,
cookie string,
orderCode string,
trackTime string,
endUserId string,
firstLink string,
sessionViewNo string,
productId string,
curMerchantId string,
provinceId string,
cityId string,
fee string,
edmActivity string,
edmEmail string,
edmJobId string,
ieVersion string,
platform string,
internalKeyword string,
resultSum string,
currentPage string,
linkPosition string,
buttonPosition string
)row format delimited fields terminated by '\t'
stored as textfile
load data local inpath '/home/liuwl/opt/datas/2015082818' into table yhd_source;
load data local inpath '/home/liuwl/opt/datas/2015082819' into table yhd_source;
# 创建清洗表
create table if not exists yhd_clean(
id string,
url string,
guid string,
date string,
hour string)
row format delimited fields terminated by '\t'
insert into table yhd_clean select id,url,guid,substring(trackTime,9,2) date,substring(trackTime,12,2) hour from yhd_source;
select id,date,hour from yhd_clean limit 5;
# 改建分区表(静态分区)
create table if not exists yhd_part1(
id string,
url string,
guid string
) partitioned by (date string,hour string)
row format delimited fields terminated by '\t'
insert into table yhd_part1 partition (date='28',hour='18') select id,url,guid from yhd_clean where date='28' and hour='18';
insert into table yhd_part1 partition (date='28',hour='19') select id,url,guid from yhd_clean where date='28' and hour='19';
select id,date ,hour from yhd_part1 where date ='28' and hour='18' limit 10;
# 使用动态分区需要修改部分参数
hive.exec.dynamic.partition--true
hive.exec.dynamic.partition.mode--nonstrict
create table if not exists yhd_part2(
id string,
url string,
guid string
) partitioned by (date string,hour string)
row format delimited fields terminated by '\t'
# 动态分区根据partition字段进行匹配
insert into table yhd_part2 partition (date,hour) select * from yhd_clean;
select id,date ,hour from yhd_part2 where date ='28' and hour='18' limit 10;
# 实现需求
PV: select date,hour,count(url) PV from yhd_part1 group by date,hour;
0: jdbc:hive2://hadoop09-linux-01.ibeifeng.co> select date,hour,count(url) PV from yhd_part1 group by date,hour;
+-------+-------+--------+--+
| date | hour | pv |
+-------+-------+--------+--+
| 28 | 18 | 64972 |
| 28 | 19 | 61162 |
+-------+-------+--------+--+
UV: select date,hour,count(distinct(guid)) UV from yhd_part1 group by date,hour;
0: jdbc:hive2://hadoop09-linux-01.ibeifeng.co> select date,hour,count(distinct(guid)) UV from yhd_part1 group by date,hour;
+-------+-------+--------+--+
| date | hour | uv |
+-------+-------+--------+--+
| 28 | 18 | 23938 |
| 28 | 19 | 22330 |
+-------+-------+--------+--+
# 结合放入log_result表
create table if not exists log_result as select date,hour,count(url) PV,count(distinct(guid)) UV from yhd_part1 group by date,hour;
select date,hour,pv,uv from log_result;
0: jdbc:hive2://hadoop09-linux-01.ibeifeng.co> select date,hour,pv,uv from log_result;
+-------+-------+--------+--------+--+
| date | hour | pv | uv |
+-------+-------+--------+--------+--+
| 28 | 18 | 64972 | 23938 |
| 28 | 19 | 61162 | 22330 |
+-------+-------+--------+--------+--+
# 将结果表导出到Mysql,使用Sqoop
# 在Mysql中创建数据库和表
create database if not exists track_result;
use track_result;
create table if not exists log_track_result(
date varchar(10) not null,
hour varchar(10) not null,
pv varchar(10) not null,
uv varchar(10) not null,
primary key(date,hour)
);
# 使用sqoop export 导出到log_track_result表
bin/sqoop export \
--connect jdbc:mysql://hadoop09-linux-01.ibeifeng.com:3306/track_result \
--username root \
--password root \
--table log_track_result \
--export-dir /user/hive/warehouse/track_log.db/log_result \
--num-mappers 1 \
--input-fields-terminated-by '\001'
# 在Mysql中查询测试
select * from log_track_result;
mysql> select * from log_track_result;
+------+------+-------+-------+
| date | hour | pv | uv |
+------+------+-------+-------+
| 28 | 18 | 64972 | 23938 |
| 28 | 19 | 61162 | 22330 |
+------+------+-------+-------+
2 rows in set (0.00 sec)
日志分析_统计每日各时段的的PV,UV的更多相关文章
- 日志分析_使用shell完整日志分析案例
一.需求分析 1. 日志文件每天生成一份(需要将日志文件定时上传至hdfs) 2. 分析日志文件中包含的字段:访问IP,访问时间,访问URL,访问状态,访问流量 3. 现在有"昨日" ...
- 统计_statistics_不同的人_大样本_分析_统计方法_useful ?
统计_statistics_不同的人_大样本_分析_
- 日志分析-mime统计
提取日志中未落入标准字段的mime,分adx,adtype 统计mime的数量和包含js的数量占比 require 'date' require 'net/http' require 'uri' re ...
- 使用Spark进行搜狗日志分析实例——统计每个小时的搜索量
package sogolog import org.apache.spark.rdd.RDD import org.apache.spark.{SparkConf, SparkContext} /* ...
- nginx日志分析及其统计PV、UV、IP
一.nginx日志结构 nginx中access.log 的日志结构: $remote_addr 客户端地址 211.28.65.253 $remote_user 客户端用户名称 -- $time_l ...
- yhd日志分析(二)
yhd日志分析(二) 继续yhd日志分析,统计数据 日期 uv pv 登录人数 游客人数 平均访问时长 二跳率 独立ip数 1 分析 登录人数 count(distinct endUserId) 游客 ...
- Spark SQL慕课网日志分析(1)--系列软件(单机)安装配置使用
来源: 慕课网 Spark SQL慕课网日志分析_大数据实战 目标: spark系列软件的伪分布式的安装.配置.编译 spark的使用 系统: mac 10.13.3 /ubuntu 16.06,两个 ...
- mtools 是由MongoDB 官方工程师实现的一套工具集,可以很快速的日志查询分析、统计功能,此外还支持本地集群部署管理.
mtools 是由MongoDB 官方工程师实现的一套工具集,可以很快速的日志查询分析.统计功能,此外还支持本地集群部署管理 https://www.cnblogs.com/littleatp/p/9 ...
- shell常用命令及正则辅助日志分析统计
https://www.cnblogs.com/wj033/p/3451618.html 正则日志分析统计 3 grep 'onerror' v3-0621.log | egrep -v '(\d ...
随机推荐
- Java Thread join() 的用法
Java Thread中, join() 方法主要是让调用改方法的thread完成run方法里面的东西后, 在执行join()方法后面的代码.示例: class ThreadTesterA imple ...
- 如何把Eclipse工程导入到Android Studio
1 在Eclipse中新建android项目androiddemo.里面只有一个MainActivity,主要是使用fastjson将一个Person对象转化成字符串. 2 在项目上点击右键-&g ...
- 【JDBC 报错】Connections could not be acquired from the underlying database!
项目启动报错: [2016-07-13 10:04:15,074] ERROR org.apache.ibatis.executor.BaseExecutor Could not get a data ...
- 苹果推送(APNs)ios push小结
把app删除后就推送不成功了,可以看出deviceToken应该是设备+app来一起识别的,重新安装后仍然为同一个 简介 推送服务APNs(Apple Push Notification servic ...
- JDK NIO编程
我们首先需要澄清一个概念:NIO到底是什么的简称?有人称之为New I/O,因为它相对于之前的I/O类库是新增的,所以被称为New I/O,这是它的官方叫法.但是,由于之前老的I/O类库是阻塞I/O, ...
- BZOJ 2716 [Violet 3]天使玩偶 ——KD-Tree
[题目分析] KD-Tree的例题.同BZOJ2648. [代码] #include <cstdio> #include <cstring> #include <cstd ...
- 关于oracle ORA-28001的解决方法
今天发现客户的机器上的系统登录不上了,并且提示如下情况: 发现原来Oracle11G的新特性所致, Oracle11G创建用户时缺省密码过期限制是180天(即6个月), 如果超过180天用户密码未做修 ...
- The Unique MST(次小生成树)
Time Limit: 1000MS Memory Limit: 10000K Total Submissions: 22335 Accepted: 7922 Description Give ...
- bpl 包的编写和引用
转载:http://www.cnblogs.com/gxch/archive/2011/04/23/bpl.html 为什么要使用包? 答案很简单:因为包的功能强大.设计期包(design-time ...
- MFC 打开文件夹选择框并获取文件夹路径
CString FicowGetDirectory() { BROWSEINFO bi; char name[MAX_PATH]; ZeroMemory(&bi, sizeof(BROWSEI ...