使用Oracle Stream Analytics 21步搭建大数据实时流分析平台
概要:
Oracle Stream Analytics(OSA)是企业级大数据流实时分析计算平台。它可以通过使用复杂的关联模式,扩充和机器学习算法来自动处理和分析大规模实时信息。流式传输的大数据可以源自IoT传感器,Web管道,日志文件,销售点设备,ATM机,社交媒体,事务数据库,NoSQL数据库或任何其他数据源。
OSA为业务用户提供了动态创建和实施即时洞察解决方案。它允许用户通过实时图表,地图,可视化视图来实时浏览实时数据,并以图形方式构建流传输管道,而无需进行任何手工编码。 OSA使用与Oracle连续查询引擎集成的Apache Kafka和Apache Spark Streaming在可伸缩且高度可用的集群大数据环境中执行。

OSA广泛应用于以下场景,以解决现代企业中的关键实时用例:
- 金融服务:实时反欺诈,实时风控,实时营销。
- 交通运输:公共交通,车辆调度,集装箱追踪。
- 运营商:精准营销,网络管理,“万物互联”。
- 零售:个性化推荐,动态定价,货架管理。
- 制造业:智能库存,品质管控,预测性维护。
- 公共安全:平安城市。
本文我们将介绍如何使用Oracle Stream Analytics实现实时数据采集,实时数据处理,实时数据可视化以及实时数据同步到大数据平台的整个过程。
Oracle DB→Oracle GoldenGate→Kafka→OSA REST→HBase
具体场景及工具如下:

测试环境说明如下:

整体步骤大致如下:
- 源端数据同步及KAFKA准备
- OSA安装及HBASE配置
- OSA配置
详细步骤如下:
源端数据同步及KAFKA准备
1.在源端数据库Enable GoldenGate并创建测试表
2.配置源端Golden Gate实时数据捕获
3.部署并配置GoldenGate for BigData
- OGG for BigData无需安装,只需解压即可使用
- 编辑配置文件:kafka.props,custom_kafka_producer.properties
4. 拉起extract, pump, replicat进程
Oracle stream analytics安装及Hbase配置
5. OSA安装
OSA下载链接如下:
Oracle Stream Analytics Downloads
目前最新版本为19.1,按照官方安装文档进行安装。

6.HBase的安装及测试表创建
安装并创建同步测试表:

Oracle Stream Analytics配置
下面将详细介绍OSA配置过程:
7.登录OSA
osaadmin为OSA预制用户

8.进入OSA界面,选择【Catalog】选项

9.选择创建新连接选项,点击【Create New Item】

10.创捷连接选项,输入连接名称,连接类型选择【kafka】
并在kafka bootstrap里输入broker地址,测试连接成功

11.创建新的流数据,点击创建【Create Stream】
类型选择【kafka】选择之前创建的连接,输入Topic名称,选择数据格式【JSON】。
topic名称为OGG for bigdata配置文件里指定的Topic

12.预先定义好JSON数据格式的文件如下:
下面定义可以从kafka消费信息中获取,使用bin/kafka-console-consumer.sh

13.OSA支持的数据格式有【CSV】,【JSON】,【AVRO】
这次使用的为上述预定义好的JSON格式

14.创建Custom Jar,选择创建【Custom Jar】
输入名称,选择类型为【Custom Jar】,在Jar URL上指定预先创建好的java程序
需要使用Custom Jar获取流数据并且进行Base64加密处理,Hbase上使用Rest进行操作时,仅支持Base64加密过的数据的增删改查。
注意: Custom Jar所使用的Java程序可以只做针对Event的Base64加密处理
REST可以在OSA上添加REST类型的Stage执行写入到Hbase
OSA目前版本尚未支持流数据base64加密输出
本文使用Java示例程序执行Base64加密及REST操作写入到Hbase

15.创建Pipeline,选择创建【Pipeline】
指定名称,选择上述已创建好的Stream,并且保存。
16.添加已创建的Custom Stage到Pipeline上
右击Pipeline上的Stream标识,选择【Custom Stage from Custom Jar】

17. 指定【Custom Stage】名称,点击保存

18.在Custom Stage的配置选项,我们选择之前已经上传的Custom Jar对象

19.在【Input Mapping】选项,需要把Stream内容和Custom Stage进行关联
并且点击【Publish】发布
注意:如果不选择Publish则无法把OSA输出进行写入操作到Hbase
JOB_ID=after_JOB_ID、JOB_TITILE=after_JOB_TITLE、MIN_SALARY= after_ MIN_SALARY 、MAX_SALARY= after_ MAX_SALARY

20.【Publish】的Pipeline将被锁定,如需更改配置点击【Unpublish】进行更改
Publish的Pipeline如下:

在下方可以看到实时流数据的监听
21.至此为止,OSA端的配置已完成。最后一步为测试与演示。
测试与演示
1.源端数据库插入一条数据并提交

2.OGG源端捕获确认(Extract和Pump)

3.OGG目标端Kafka投递确认

4.Kafka端消费信息确认

5.Kafka端显示以下纪录已经消费,OP_TYPE代表操作类型,
OP_TYPE=I ,I表示这是一条INSERT插入操作。

6.查看OSA Stream监听状态
点击【kafka-stream】图标,可以看到该条记录已经被Kafka Stream正确的监听

7.查看OSA输出结果
点击【restapi】图标,可以看到OSA输出结果

8.使用HBase写入确认
从HBase的HR_JOBS表中,可以看到源端插入的数据已经写入到该表中

写在最后
Oracle Stream Analytics 还具有以下产品特性:
1.提供友好的图形交互页面,集成可视化并可以通过Java语言进行扩展

2. 提供丰富的内建流模式库并可通过Java进行扩展

3. 与位置和地理空间功能集成

4. 预测分析与机器学习集成

5. 可对接Druid Superset

Oracle Stream Analytics支持Continuous Query Language (CQL) ,构建于分布式分内存计算网格框架之上,使得查询处理的性能可得到线性增长。学习成本低,使得业务人员和开发人员可以更大限度的关注业务而非应用技术架构。是您快速构建企业级大数据流实时分析计算平台不二之选。
使用Oracle Stream Analytics 21步搭建大数据实时流分析平台的更多相关文章
- 基于Hadoop生态SparkStreaming的大数据实时流处理平台的搭建
随着公司业务发展,对大数据的获取和实时处理的要求就会越来越高,日志处理.用户行为分析.场景业务分析等等,传统的写日志方式根本满足不了业务的实时处理需求,所以本人准备开始着手改造原系统中的数据处理方式, ...
- Impala简介PB级大数据实时查询分析引擎
1.Impala简介 • Cloudera公司推出,提供对HDFS.Hbase数据的高性能.低延迟的交互式SQL查询功能. • 基于Hive使用内存计算,兼顾数据仓库.具有实时.批处理.多并发等优点 ...
- 腾讯云EMR大数据实时OLAP分析案例解析
OLAP(On-Line Analytical Processing),是数据仓库系统的主要应用形式,帮助分析人员多角度分析数据,挖掘数据价值.本文基于QQ音乐海量大数据实时分析场景,通过QQ音乐与腾 ...
- 大数据时代日志分析平台ELK的搭建
A,首先说说ELK是啥, ELK是ElasticSearch . Logstash 和 Kiabana 三个开源工具组成.Logstash是数据源,ElasticSearch是分析数据的,Kiaba ...
- 大数据应用之Windows平台Hbase客户端Eclipse开发环境搭建
大数据应用之Windows平台Hbase客户端Eclipse开发环境搭建 大数据应用之Windows平台Hbase客户端Eclipse环境搭建-Java版 作者:张子良 版权所有,转载请注明出处 引子 ...
- 一台虚拟机,基于docker搭建大数据HDP集群
前言 好多人问我,这种基于大数据平台的xxxx的毕业设计要怎么做.这个可以参考之前写得关于我大数据毕业设计的文章.这篇文章是将对之前的毕设进行优化. 个人觉得可以分为两个部分.第一个部分就是基础的平台 ...
- 12.Linux软件安装 (一步一步学习大数据系列之 Linux)
1.如何上传安装包到服务器 有三种方式: 1.1使用图形化工具,如: filezilla 如何使用FileZilla上传和下载文件 1.2使用 sftp 工具: 在 windows下使用CRT 软件 ...
- 搭建大数据hadoop完全分布式环境遇到的坑
搭建大数据hadoop完全分布式环境,遇到很多问题,这里记录一部分,以备以后查看. 1.在安装配置完hadoop以后,需要格式化namenode,输入指令:hadoop namenode -forma ...
- 我搭建大数据Hadoop完全分布式环境遇到的坑---hadoop: command not found
搭建大数据hadoop环境,遇到很多问题,这里记录一部分,以备以后查看. [遇到问题].在安装配置完hadoop以后,需要格式化namenode,输入指令:hadoop namenode -forma ...
随机推荐
- vue脚手架搭项目 git push超时github网站打不开
vue: 1.npm install vue-cli -g 全局安装脚手架 2.vue init webpack name 新建项目 name为项目名称 react: 1..npm install ...
- C# 匹配可空变量
在 C# 7.0 的时候提供更好用的模式匹配方法,支持通过 is 直接转换对应的类,但是如果是尝试转换可空的对象,那么将会提示无法编译,或转换失败 在 C# 7.0 的 is 转换是十分好用的功能,例 ...
- 土旦:移动端 Vue+Vant 的Uploader 实现 :上传、压缩、旋转图片
面向百度开发 html <van-uploader :after-read="onRead" accept="image/*"> <img s ...
- IPv4数据报格式及其语义
一.IP数据报的格式如下图所示 版本 首部长度 服务类型 数据报长度 16比特标识 标志 13比特片偏移 寿命 上层协议 首部检验和 32比特源IP地址 32比特目的IP地址 选项(如果有的话) 数据 ...
- vim 方式快捷编辑代码
说明 **I: ** 行首插入 **a: ** 追加 **A: ** 行尾插入 **R: ** 替换文字 **v: ** 选择 **ctrl-v: ** 选择举行区域 **x: ** 删除 **dd: ...
- Batch Normalization批量归一化
BN的深度理解:https://www.cnblogs.com/guoyaohua/p/8724433.html BN: BN的意义:在激活函数之前将输入归一化到高斯分布,控制到激活函数的敏感区域,避 ...
- 用WPF实现大数据分析,超炫的效果,还带地图
开头语 经过一段时间研究,终于实现CS和BS相同效果的大数据展示平台了.首先来看看实现的效果,超炫的效果,客户特别喜欢,个人也非常满意,分享给各位,同大家一起交流学习. 大数据展示平台 从上图可以看出 ...
- 机器学习——Bagging与随机森林算法及其变种
Bagging算法: 凡解:给定M个数据集,有放回的随机抽取M个数据,假设如此抽取3组,3组数据一定是有重复的,所以先去重.去重后得到3组数据,每组数据量分别是s1,s2,s3,然后三组分别训练组合 ...
- 20191024-2 Alpha阶段贡献分配
此作要求参见: https://edu.cnblogs.com/campus/nenu/2019fall/homework/9858 要求1 每位组员的贡献分值 罗杨美慧:9 徐丽君:11 魏鑫:12 ...
- 洛谷P1248 加工生产调度 贪心
正解:贪心 解题报告: 传送门$QwQ$ $umm$直接看可能比较难想,可以先考虑另一个题? 有$n$个小怪,每打一只小怪会扣$a_i$的血,打完之后会回升$b_i$的血,问至少要多少血量才能使全程血 ...