一、引入

MapReduce Job

Hive 脚本任务

同一个业务:先后、定时调度

工作流: 定义工作流程

activity

jbpm

oozie: 大数据工作流定义与调度框架

专门定义与调度MapReduce Job工作流程

拓展:shell、hive、sqoop、hdfs

oozie演变过程:

v1 Workflow 工作流定义

v2 Coordinator 调度

  基于时间、基于数据集是否可用

v3 bundle 将某些相关的Cordinator集成在一块

调度批量执行

案例:

nginx收集日志,每天进行分割(一天一个文件) ---> shell

每天分割出来的日志文件,上传到hdfs上   ---> shell/flume

mapreduce job数据清洗/ hive udf udts进行数据清洗

hive hsql 进行业务上的统计分析  pv uv 会话

sqoop导出到mysql里面

定义

start

两类节点:

控制流程节点:

decision选择节点

fork

join

顺序

action节点:

MapReduce action

shell

hive

sqoop

Oozie执行workflow:底层是MapReduce去执行Workflow

工作流引擎:MapReduce

启动一个workflow实例,运行工作流中任务,通过Mapreduce来执行

二、安装部署

1. 下载

2. 解压安装

1)

2)tar -zxvf oozie-hadooplibs-4.0.0-cdh5.3.6.tar.gz -C ../

3)创建目录libext

/opt/modules/cdh/oozie-4.0.0-cdh5.3.6/libext

cp /opt/modules/cdh/oozie-4.0.0-cdh5.3.6/hadooplibs/hadooplib-2.5.0-cdh5.3.6.oozie-4.0.0-cdh5.3.6/*.jar /opt/modules/cdh/oozie-4.0.0-cdh5.3.6/libext/

4)cp /

ext-2.2.zip  ---> oozie使用了extjs

ext-2.2.zip copy 到 libext

5)将mysql的驱动包添加到libext

oozie需要有关系型数据库存储工作流运行过程中的状态流转信息

6)修改oozie-site.xml

oozie-env.sh

从CATALINA_OPTS看出,oozie内部使用的tomcat做应用服务器

7)打war包到tomcat中

bin/oozie-setup.sh prepare-war

成功:

New Oozie WAR file with added 'ExtJS library, JARs' at /opt/modules/cdh/oozie-4.0.0-cdh5.3.6/oozie-server/webapps/oozie.war

8)将tar包解压并上传依赖包到hdfs上

bin/oozie-setup.sh sharelib create -fs hdfs://beifeng-hadoop-02:9000 -locallib oozie-sharelib-4.0.0-cdh5.3.6-yarn.tar.gz

<property>
<name>oozie.service.WorkflowAppService.system.libpath</name>
<value>/user/${user.name}/share/lib</value>
<description>
System library path to use for workflow applications.
This path is added to workflow application if their job properties sets
the property 'oozie.use.system.libpath' to true.
</description>

9)初始化mysql中的oozie库

bin/oozie-setup.sh db create -run oozie.sql

10)启动oozie

bin/oozied.sh start

netstat -tlnup | grep 11000

11)访问

http://beifeng-hadoop-02:11000/oozie/

三、oozie使用

1. 运行案例

使用oozie来运行 fof 好友推荐 mapredue,首先要确保MapReduce能正常运行。

mapreduce-example.jar findfof bestfof

2. Oozie:工作流程是通过配置文件进行配置

worflow.xml  参考examples里面的皮遏制

oorzie运行workflow是通过MapReduce运行,所以workflow的配置文件需要先放到hdfs上

如何定义工作流并运行工作流(以MapReduce为例):

(1)先在本地文件系统定义好配置

(2)编写两个配置

job.properties  workflow.xml

(3)创建lib目录,将mapreduce jar包放进去

job.properties

YANR 的调度器的队列

yarn调度,其实就是讲mr job放到某个queue上运行

队列:

(1)FIFO

(2)Fair公平队列:先尽可能将资源分配给某个Job

比如只有一个job时,拥有所有资源,当有另一个job要执行,则会分出部分资源

(3)容量队列:多个FIFO队列,每个队列有资源占有率

往YARN上提交Job,根据Job的资源要求安排合适队列运行job任务。

3. 将配置上传到hdfs

4. 运行

bin/oozie job -oozie http://beifeng-hadoop-02:11000/oozie -config /opt/datas/oozie-apps/fof-mr/job.properties -run

补充概念:

DAG有向无环图:

Oozie workflow

storm 数据流

spark 本质核心 DAG

<ok to ="">

1)Map Reduce action

2) shell action

Oozie执行具有本地特性的shell脚本:

引子shell脚本

真正要执行的shell脚本,要在哪台服务器上,引子shell脚本就放在哪台服务器上。

password='beifeng'

/usr/bin/expect

切割日志

3) hive action

4)sqoop action

《OD学Oozie》20160807Oozie的更多相关文章

  1. 《OD学oozie》20160813

    一.日志收集项目案例 1. oozie中依赖jar包 在工作目录下创建lib目录,上传依赖包的lib目录下 2. 作业 将日志收集与处理项目案例使用oozie的workflow执行 3. coordi ...

  2. 《OD学Hive》第六周20160730

    一.Hive的JDBC连接 日志分析结果数据,存储在hive中 <property> <name>hive.server2.thrift.port</name> & ...

  3. 《OD学hive》第四周0717

    一.Hive基本概念.安装部署与初步使用 1. 后续课程 Hive 项目:hadoop hive sqoop flume hbase 电商离线数据分析 CDH Storm:分布式实时计算框架 Spar ...

  4. 《OD学hadoop》第二周0703

    hdfs可视化界面: http://beifeng-hadoop-01:50070/dfshealth.html#tab-overview yarn可视化界面: http://beifeng-hado ...

  5. 《OD学hadoop》20160903某旅游网项目实战

    一.大数据的落地点 1.数据出售 数据商城:以卖数据为公司的核心业务 2. 数据分析 百度统计 友盟 GA IBM analysis 3.搜索引擎 4. 推荐系统 mahout 百分比 5.精准营销 ...

  6. 《OD学storm》20160827

    http://www.cnblogs.com/lujinhong2/p/4686512.html http://blog.csdn.net/paul_wei2008/article/details/2 ...

  7. 《OD学HBase》20160821

    一.HBase性能调优 1. JVM内存调优 MemStore内存空间,设置合理大小 memstore.flush.size 刷写大小 134217728 = 128M memstore.mslab. ...

  8. 《OD学HBase》20160820

    一.案例 微博: 微博内容: 关注用户和粉丝用户: 添加或移除关注用户 查看关注用户的微博内容 微博数据存储: 响应时间 秒级 无延迟 (1)mysql分布式 (2)hbase数据库 使用HBase数 ...

  9. 《OD学HBase》20160814

    一.HBase引入 http://hbase.apache.org/ 大数据的数据库 1. 概述 Hadoop生态系统中的一个分布式.可拓展.面向列.可伸缩,具有自动容错功能的数据库. NoSQL数据 ...

随机推荐

  1. Swift-3-字符串和字符

    // Playground - noun: a place where people can play import UIKit var someString = "some string ...

  2. mvc从xheditor编辑器中获取内容时存在潜在危险

    xmfdsh在使用xheditor提交要发布的文章等内容的时候出现了如下的错误: 从客户端(Content="<p style="text-align...")中检 ...

  3. Nginx的accept_mutex配置分析

    让我们看看accept_mutex的意义:当一个新连接到达时,如果激活了accept_mutex,那么多个Worker将以串行方式来处理,其中有一个Worker会被唤醒,其他的Worker继续保持休眠 ...

  4. HDOJ 1069 DP

    开启DP之路 题目:http://acm.hdu.edu.cn/showproblem.php?pid=1069 描述一下: 就是给定N(N<=20)个方体,让你放置,求放置的最高高度,限制条件 ...

  5. HDOJ 3177 Crixalis&#39;s Equipment

    Crixalis's Equipment Time Limit: 2000/1000 MS (Java/Others)    Memory Limit: 32768/32768 K (Java/Oth ...

  6. GA项目体会

    1.NaN表示运算的结果是未定义的计算过程,例如0/0.在计算EBO的时候,由于使用泊松分布的计算过程,出现了0/0的情况,所以控制台才会提示"非数字". 2.保障资金太小的时候可 ...

  7. C# 枚举类型操作

    //定义一个枚举 public enum Colors { Red, Green, Blue, Yellow }; //根据key找value string name = Enum.GetName(t ...

  8. java基础知识回顾之javaIO类---BufferedReader和BufferedWriter

    使用了装饰设计模式:此类的设计是为了提高流操作数据的效率.思想就是定义容器将数据进行临时存储,对于缓冲区对象,其实就是将这个容器进行了分装,并提供了更高效的操作方法. BufferReader: pa ...

  9. URAL 1152. False Mirrors (记忆化搜索 状压DP)

    题目链接 题意 : 每一颗子弹破坏了三个邻近的阳台.(第N个阳台是与第1个相邻)射击后后的生存的怪物都对主角造成伤害- 如此,直到所有的怪物被消灭,求怎样射击才能受到最少伤害. 思路 : 状压,数据不 ...

  10. hdu 4745 Two Rabbits

    思路:求最长回文子串的长度!代码如下: #include<iostream> #include<stdio.h> #include<algorithm> #incl ...