【CDH数仓】Day02:业务数仓搭建、Kerberos安全认证+Sentry权限管理、集群性能测试及资源管理、邮件报警、数据备份、节点添加删除、CDH的卸载

五、业务数仓搭建
1、业务数据生成
建库建表gmall
需求:生成日期2019年2月10日数据、订单1000个、用户200个、商品sku300个、删除原始数据。
CALL init_data('2019-02-10',1000,200,300,TRUE);
2、业务数据导入数仓
编写Sqoop定时导入脚本(目录中导入MySQL)
3、ODS层--原始数据层
订单表、订单详情表、商品表、用户表、商品一二三级分类表、支付流水表
编写ODS层数据导入脚本ods_db.sh(目录的指定日期数据导入指定分区)
4、DWD层--活跃设备
对ODS层数据进行判空过滤。对商品分类表进行维度退化(降维)
商品表(增加分类)进行维度退化

编写DWD层数据导入脚本
5、用户行为宽表
drop table if exists dws_user_action;
create external table dws_user_action
(
user_id string comment '用户 id',
order_count bigint comment '下单次数 ',
order_amount decimal(16,2) comment '下单金额 ',
payment_count bigint comment '支付次数',
payment_amount decimal(16,2) comment '支付金额 '
) COMMENT '每日用户行为宽表'
PARTITIONED BY (`dt` string)
stored as parquet
location '/warehouse/gmall/dws/dws_user_action/'
tblproperties ("parquet.compression"="snappy");
编写数据宽表导入脚本:多个sql组合
6、ADS层(需求:GMV成交总额)
同上
7、Oozie基于Hue实现GMV指标全流程调度
在Hue中创建Oozie任务GMV
生成业务数据
oozie调度脚本上传到HDFS
添加保存并执行workflow
并可以使用hue查看workflow执行进度
MySQL中查看宽表中数据
六、数仓之即席查询数仓搭建
1、Impala安装(对HDFS、Hbase数据的高性能、低延迟的交互式SQL查询功能,基于hive,无需写入磁盘与转换成MR)
添加Impala服务、角色分配、配置、启动
配置Hue支持Impala
Impala基于Hue查询
比较与hive的查询速度
七、安全之Kerberos安全认证
1、Kerberos概述
对个人通信以安全的手段进行身份认证
一些概念需要了解:
1)KDC:密钥分发中心,负责管理发放票据,记录授权。
2)Realm:Kerberos管理领域的标识。
3)principal:当每添加一个用户或服务的时候都需要向kdc添加一条principal,principl的形式为:主名称/实例名@领域名。
4)主名称:主名称可以是用户名或服务名,表示是用于提供各种网络服务(如hdfs,yarn,hive)的主体。
5)实例名:实例名简单理解为主机名。

2、Kerberos安装
相关软件的安装:yum install -y krb5-server krb5-workstation krb5-libs
#查看结果
[root@hadoop102 ~]# rpm -qa | grep krb5
krb5-devel-1.15.1-37.el7_7.2.x86_64
krb5-server-1.15.1-37.el7_7.2.x86_64
krb5-workstation-1.15.1-37.el7_7.2.x86_64
krb5-libs-1.15.1-37.el7_7.2.x86_64
配置文件kdc.conf和krb5.conf , kdc配置只是需要Server服务节点配置
配置端口号、主机名等信息
文件同步xsync /etc/krb5.conf
生成Kerberos数据库kdb5_util create -s : kadm5.acl kdc.conf principal principal.kadm5 principal.kadm5.lock principal.ok
赋予Kerberos管理员所有权限kadm5.acl: */admin@HADOOP.COM *
启动服务、创建管理员实例、各机器上使用kinit管理员验证(kinit admin/admin)
3、Kerberos数据库操作
登录Kerberos数据库:kadmin.local
创建Kerberos主体kadmin.local -q "addprinc atguigu/atguigu"并修改密码kadmin.local -q "cpw atguigu/atguigu"
查看所有主体kadmin.local -q "list_principals"
4、Kerberos主体认证
密码验证/秘钥文件验证
keytab密钥文件认证
生成主体admin/admin的keytab文件到指定目录/root/admin.keytab
认证:kinit -kt /root/atguigu.keytab atguigu/atguigu
查看与销毁凭证:klist kdestroy
5、CDH启用Kerberos安全认证
为CM创建管理员主体/实例:addprinc cloudera-scm/admin
启用Kerberos,全选并填写配置
重启集群并查看主体:kadmin.local -q "list_principals"
6、Kerberos安全环境实操
系统与系统(flume-kafka)之间的通讯,以及用户与系统(user-hdfs)之间的通讯都需要先进行安全认证
用户访问服务认证
创建用户主体/实例,并认证kinit hive/hive@HADOOP.COM
可以实现hdfs访问与hive查询
配置kafka实现消费Kafka topic
HDFS WebUI浏览器认证
用户行为数仓:日志采集Flume与消费Kafka Flume配置
八、安全之Sentry权限管理
1、Sentry概述
kerberos主要负责平台用户的用户认证,sentry则负责数据的权限管理

给组的不同角色赋予读写权限
2、Sentry安装部署
添加服务、自定义角色分配、配置数据库连接
3、Sentry与Hive/Impala集成
修改配置参数:取消HiveServer2用户模拟、确保hive用户能够提交MR任务
配置Hive使用Sentry
配置Impala使用Sentry
配置HDFS权限与Sentry同步
4、Sentry授权实战
配置HUE支持Sentry
Sentry实战之命令行:添加用户、创建Role、赋予权限
九、测试之集群性能测试
1、DFSIO测试
读写性能测试
2、TeraSort测试:对数据进行排序
十、测试之集群资源管理
资源KPI指标,以及丰富的可视化的资源分配、运维和监控界面
1、动态资源池
Yarn默认有三种调度器——FIFO、Capacity以及Fair Scheduler
CM对公平的进行配置:资源池、计划模式
2、静态资源池
Linux 容器工具,即 LXC,可以提供轻量级的虚拟化,以便隔离进程和资源
保证不同应用、不同任务之间的资源使用独立性
集成了可视化的界面,可以对 CPU、IO、内存等资源进行静态的隔离
十一、测试之邮件报警
1、点击Cloudera Management Service
2、填写邮箱配置
3、重启Cloudera Management Service
4、测试发送邮件
十二、测试之数据备份
1、NameNode元数据备份
选择活动的NameNode、进入安全模式、选择保存Namespace、进入活动namenode所在服务器备份、备份MySQL元数据
备份命令:mysqldump -u root -p -A > /root/mysql_back.dump
十三、集群管理之节点的添加和删除
1、安装
安装jdk、cm
2、添加节点向导
安装所需的组件
3、删除节点
Begin Maintenance进行退役
停止cloudera-scm-agent服务
十四、集群管理之卸载CDH
1、停止所有服务
停止CMservice
2、停用并移除Parcels
对我们安装的parcels,依次执行停用、仅限停用状态、从主机删除
3、删除集群
4、卸载Cloudera Manager Server
5、卸载Cloudera Manager Agent(所有Agent节点)
6、删除用户数据(所有节点)
7、停止并移除数据库
#停止服务
[root@hadoop102 /]# systemctl stop mysqld
#卸载数据库
[root@hadoop102 /]# yum -y remove mysql*
keberos主要负责平台用户的用户认证,sentry则负责数据的权限管理
【CDH数仓】Day02:业务数仓搭建、Kerberos安全认证+Sentry权限管理、集群性能测试及资源管理、邮件报警、数据备份、节点添加删除、CDH的卸载的更多相关文章
- Nginx网络架构实战学习笔记(六):服务器集群搭建、集群性能测试
文章目录 服务器集群搭建 Nginx---->php-fpm之间的优化 302机器 202机器 压力测试 搭建memcached.mysql(数据准备) 今晚就动手-.- 集群性能测试 服务器集 ...
- 搭建 MongoDB分片(sharding) / 分区 / 集群环境
1. 安装 MongoDB 三台机器 关闭防火墙 systemctl stop firewalld.service 192.168.252.121 192.168.252.122 192.168.25 ...
- 搭建docker私有仓库,建立k8s集群
服务器IP角色分布 192.168.5.2 etcd server 192.168.5.2 kubernetes master 192.168.5.3 kubernetes node 192.168. ...
- Kafka:ZK+Kafka+Spark Streaming集群环境搭建(十七)Elasticsearch-6.2.2集群安装,组件安装
1.集群安装es ES内部索引原理: <时间序列数据库的秘密(1)—— 介绍> <时间序列数据库的秘密 (2)——索引> <时间序列数据库的秘密(3)——加载和分布式计算 ...
- SpringBoot搭建基于Apache Shiro的权限管理功能
Shiro 是什么 Apache Shiro是一个强大易用的Java安全框架,提供了认证.授权.加密和会话管理等功能: 认证 - 用户身份识别,常被称为用户“登录”: 授权 - 访问控制: 密码加密 ...
- mesos+marathon+zookeeper的docker管理集群亲手搭建实例(环境Centos6.8)
资源:3台centos6.8虚拟机 4cpu 8G内存 ip 10.19.54.111-113 1台centos6.8虚拟机2cpu 8G ip 10.19.53.55 1.System Requir ...
- 搭建和测试 Redis 主备和集群
本文章只是自我学习用,不适宜转载. 1. Redis主备集群 1.1 搭建步骤 机器:海航云虚机(2核4GB内存),使用 Centos 7.2 64bit 操作系统,IP 分别是 192.168.10 ...
- Hadoop(五)搭建Hadoop客户端与Java访问HDFS集群
阅读目录(Content) 一.Hadoop客户端配置 二.Java访问HDFS集群 2.1.HDFS的Java访问接口 2.2.Java访问HDFS主要编程步骤 2.3.使用FileSystem A ...
- Kubernetes的搭建与配置(一):集群环境搭建
1.环境介绍及准备: 1.1 物理机操作系统 物理机操作系统采用Centos7.3 64位,细节如下. [root@localhost ~]# uname -a Linux localhost.loc ...
- Docker环境下搭建DNS LVS(keepAlived) OpenResty服务器简易集群
现在上网已经成为每个人必备的技能,打开浏览器,输入网址,回车,简单的几步就能浏览到漂亮的网页,那从请求发出到返回漂亮的页面是怎么做到的呢,我将从公司中一般的分层架构角度考虑搭建一个简易集群来实现.目标 ...
随机推荐
- 管理数据库的神器:DBeaver
转载自:https://mp.weixin.qq.com/s/oqEAZNk-TorqRUocav27Ew GitHub地址:https://github.com/dbeaver/dbeaver 软件 ...
- Kubernetes 日志:日志收集架构
应用程序和系统日志可以帮助我们了解集群内部的运行情况,日志对于我们调试问题和监视集群情况也是非常有用的.而且大部分的应用都会有日志记录,对于传统的应用大部分都会写入到本地的日志文件之中.对于容器化应用 ...
- SecureCRT使用之自动记录日志功能
自动记录日志功能: 选择"选项"--"全局选项",打开全局选项,在常规设置中找到"默认会话"设置项,点击右侧的"编辑默认设置&qu ...
- 条件期望:Conditional Expectation 举例详解之入门之入门之草履虫都说听懂了
我知道有很多人理解不了 "条件期望" (Conditional Expectation) 这个东西,有的时候没看清把随机变量看成事件,把 \(\sigma\)-algebra 看成 ...
- .NET下数据库的负载均衡(有趣实验)(续)
.NET下数据库的负载均衡(有趣实验)这篇文章发表后,受到了众多读者的关注与好评,其中不乏元老级程序员. 读者来信中询问最多的一个问题是:它是否能支持"异种数据库"的负载均衡?? ...
- python实现给定K个字符数组,从这k个字符数组中任意取一个字符串,按顺序拼接,列出所有可能的字符串组合结果!
题目描述:给定K个字符数组,从这k个字符数组中任意取一个字符串,按顺序拼接,列出所有可能的字符串组合结果! 样例: input:[["a","b"," ...
- 9. RabbitMQ系列之消息发布确认
Publisher Confirms发布确认是用于实现可靠发布的RabbitMQ扩展. 我们将使用发布确认来确保已发布的消息已安全到达代理.我们将介绍几种使用publisher确认的策略,并解释其优缺 ...
- java 新特性之 Stream API
强大的 Stream API 一.Stream API 的概述 Stream到底是什么呢? 是数据渠道,用于操作数据源(集合.数组等)所生成的元素序列. "集合讲的是数据,Stream讲的是 ...
- postman一些你不常用的实用技巧,竟然还能这么玩
序言 各位好啊,我是会编程的蜗牛,作为java开发者,平时调试接口的时候,肯定需要用到接口调试工具,或者Swagger之类的.Swagger的优势在于它可以将后台加的一些接口注释信息直接展示出来,但是 ...
- 亚马逊云 RDB数据故障转移(多可用区)
RDB关系数据库(Relational Database,RDB) 创建名为VPC for RDS的vpc 两个可用区,两组公内网 创建安全组 创建RDS数据库实例用的数据库子网组 创建RDS数据库实 ...