1.1.启动集群

sbin/start-dfs.sh
注:这个启动脚本是通过ssh对多个节点的namenode、datanode、journalnode以及zkfc进程进行批量启动的。

1.2.启动NameNode

sbin/hadoop-daemon.sh start namenode
1.3.启动DataNode

sbin/hadoop-daemon.sh start datanode
1.4. 启动 MR的HistoryServer

sbin/mr-jobhistory-daemon.sh start historyserver

1.4.停止集群

sbin/stop-dfs.sh
1.5.停止单个进程

sbin/hadoop-daemon.sh stop zkfc
sbin/hadoop-daemon.sh stop journalnode
sbin/hadoop-daemon.sh stop datanode
sbin/hadoop-daemon.sh stop namenode
参考:http://www.cnblogs.com/jun1019/p/6266615.html

2. Yarn (v 2.7.3)

2.1.启动集群

sbin/start-yarn.sh
注:start-yarn.sh启动脚本只在本地启动一个ResourceManager进程,而3台机器上的nodemanager都是通过ssh的方式启动的。

2.2.启动ResouceMananger

sbin/yarn-daemon.sh start resourcemanager
2.3.启动NodeManager

sbin/yarn-daemon.sh start nodemanager
2.3.启动JobHistoryServer

sbin/yarn-daemon.sh start historyserver
2.4.停止集群

sbin/stop-yarn.sh
2.5.停止单个节点

sbin/yarn-daemon.sh stop resourcemanager
sbin/yarn-daemon.sh stop nodemanager
参考:http://www.cnblogs.com/jun1019/p/6266615.html

3. Zookeeper (v 3.4.5)

3.1.启动集群

bin/zkServer.sh start
3.2.启动单个节点

bin/zkServer.sh start
3.3.启动客户端

bin/zkCli.sh -server master:2181

4.Kafka (v 2.10-0.10.1.1)

4.1.启动集群

bin/kafka-server-start.sh -daemon config/server.properties
4.2.启动单个节点

bin/kafka-server-start.sh -daemon config/server.properties
4.3.创建Topic

bin/kafka-topics.sh --create --zookeeper master:2181 --replication-factor 1 --partitions 1 --topic test
4.4.列出Topic

bin/kafka-topics.sh --list --zookeeper master:2181
4.5.生产数据

bin/kafka-console-producer.sh --broker-list master:9092 --topic test
4.6.读取数据

bin/kafka-console-consumer.sh --zookeeper master:2181 --topic test --from-beginning

5.Hbase (v 1.2.4)

5.1.启动/停止集群

bin/start-hbase.sh
bin/stop-hbase.sh
5.2. 启动/停止HMaster

bin/hbase-daemon.sh start master
bin/hbase-daemon.sh stop master
5.3. 启动/停止HRegionServer

bin/hbase-daemon.sh start regionserver
bin/hbase-daemon.sh stop regionserver
5.2.启动Shell

bin/hbase shell

6.Spark (v 2.1.0-bin-hadoop2.7)

6.1.启动程序

6.1.1. 本地

bin/spark-shell --master local
6.1.2.Standalone

bin/spark-shell --master spark://master:7077
6.1.3. Yarn Client

bin/spark-shell --master yarn-client
6.1.4. Yarn Cluster

bin/spark-shell --master yarn-cluster
7. Flume

7.1启动Agent

bin/flume-ng agent -n LogAgent -c conf -f conf/logagent.properties -Dflume.root.logger=DEBUG,console

8.Sqoop

8.1.导入

sqoop import \
--connect jdbc:mysql://mysql.example.com/sqoop \
--username sqoop \
--password sqoop \
--table cities
8.2.导出

复制代码
sqoop export \
--connect jdbc:mysql://mysql.example.com/sqoop \
--username sqoop \
--password sqoop \
--table cities \
--export-dir cities
复制代码

9.Hive

9.1 启动metastore

nohup hive --service metastore >> /home/zkpk/apache-hive-2.1.1-bin/metastore.log 2>&1 &
9.2 启动Hive server

nohup hive --service hiveserver2 >> /home/zkpk/apache-hive-2.1.1-bin/hiveserver.log 2>&1 &
9.2. 启动Shell

hive -h <host> -p <port>
beeline
!connect jdbc:hive2://master:10000
10. Mysql

10.1.启动Shell

mysql -u<user> -p<password>

---------------------------------------------------------------

5).启动storm集群:

[hadoop@bgs-5p173-wangwenting storm]$ cd /opt/storm/bin
[hadoop@bgs-5p173-wangwenting bin]$ nohup ./storm nimbus &
[hadoop@bgs-5p173-wangwenting bin]$ nohup ./storm ui &
b.再在bgs-5p174-wangwenting,bgs-5p175-wangwenting机器上启动supervisor
[hadoop@bgs-5p174-wangwenting bin]$ nohup ./storm supervisor &
[hadoop@bgs-5p175-wangwenting bin]$ nohup ./storm supervisor &

hadoop大数据组件启动的更多相关文章

  1. 单机,伪分布式,完全分布式-----搭建Hadoop大数据平台

    Hadoop大数据——随着计算机技术的发展,互联网的普及,信息的积累已经到了一个非常庞大的地步,信息的增长也在不断的加快.信息更是爆炸性增长,收集,检索,统计这些信息越发困难,必须使用新的技术来解决这 ...

  2. hadoop大数据技术架构详解

    大数据的时代已经来了,信息的爆炸式增长使得越来越多的行业面临这大量数据需要存储和分析的挑战.Hadoop作为一个开源的分布式并行处理平台,以其高拓展.高效率.高可靠等优点越来越受到欢迎.这同时也带动了 ...

  3. 【HADOOP】| 环境搭建:从零开始搭建hadoop大数据平台(单机/伪分布式)-下

    因篇幅过长,故分为两节,上节主要说明hadoop运行环境和必须的基础软件,包括VMware虚拟机软件的说明安装.Xmanager5管理软件以及CentOS操作系统的安装和基本网络配置.具体请参看: [ ...

  4. Hadoop大数据部署

    Hadoop大数据部署 一. 系统环境配置: 1. 关闭防火墙,selinux 关闭防火墙: systemctl stop firewalld systemctl disable firewalld ...

  5. (第1篇)什么是hadoop大数据?我又为什么要写这篇文章?

    摘要: hadoop是什么?hadoop是如何发展起来的?怎样才能正确安装hadoop环境? 这些天,有很多人咨询我大数据相关的一些信息,觉得大数据再未来会是一个朝阳行业,希望能尽早学会.入行,借这个 ...

  6. hadoop大数据平台安全基础知识入门

    概述 以 Hortonworks Data Platform (HDP) 平台为例 ,hadoop大数据平台的安全机制包括以下两个方面: 身份认证 即核实一个使用者的真实身份,一个使用者来使用大数据引 ...

  7. 超人学院Hadoop大数据资源分享

    超人学院Hadoop大数据资源分享 http://bbs.superwu.cn/forum.php?mod=viewthread&tid=770&extra=page%3D1 很多其它 ...

  8. 超人学院Hadoop大数据技术资源分享

    超人学院Hadoop大数据技术资源分享 http://bbs.superwu.cn/forum.php?mod=viewthread&tid=807&fromuid=645 很多其它精 ...

  9. 超人学院Hadoop大数据资源共享

    超人学院Hadoop大数据资源共享-----数据结构与算法(java解密版) http://yunpan.cn/cw5avckz8fByJ   訪问password b0f8 很多其它精彩内容请关注: ...

随机推荐

  1. Spring Boot 自带缓存及结合 Redis 使用

    本文测试环境: Spring Boot 2.1.4.RELEASE + Redis 5.0.4 + CentOS 7 自带缓存 如果没有使用缓存中间件,Spring Boot 会使用默认的缓存,我们只 ...

  2. CSS聚光灯文字(无图片)

    Welcome to my admin site! h1 { font-size: 70px; color: rgba(255, 255, 255, 1); padding: 0; margin: 0 ...

  3. PyQt(Python+Qt)学习随笔:MoviePy视频转GIF动图相关方法介绍

    专栏:Python基础教程目录 专栏:使用PyQt开发图形界面Python应用 专栏:PyQt入门学习 老猿Python博文目录 MoviePy能处理的视频是ffmpeg格式的,老猿理解支持的文件类型 ...

  4. PyQt(Python+Qt)学习随笔:树型部件QTreeWidget中当前列currentColumn和选中项selectedItems访问方法

    老猿Python博文目录 专栏:使用PyQt开发图形界面Python应用 老猿Python博客地址 当前列访问方法 树型部件QTreeWidget的currentColumn()方法返回当前项中得到焦 ...

  5. 【开发工具】 使用阿里的 Teambition 跟踪BUG修复及需求管理

    刚入公司几个月,公司新项目一直没有用协作工具进行BUG管理,公司也没有专业的测试工程师. 第一阶段开发到了尾声,工作效率实在太低,随决定使用一个比较现代一点的管理工具. 在众多在线项目协作软件中,我选 ...

  6. buuctf-[网鼎杯 2018]Fakebook 1

    这道题,也是费了很大的劲,慢慢理解慢慢消化,今天,才开始把wp写出来 首先我们先扫描一波目录,用dirsearch扫一手,发现有robots.txt文件 dirseach自带的字典在db目录下,使用格 ...

  7. Spring引用数据库文件配置数据源

    例子:引用 druid.properties 在Spring配置文件(applicationContext.xml)引入外部配置文件,需要指定特定的 key才能被正确识别并使用 在原本的 url.us ...

  8. JAVA字符配置替换方案

    在JAVA中,很多时候,我们后台要对数据进行变量配置,希望可以在运行时再进行变量替换.我们今天给大空提供的是org.apache.commons.text方案. 1.首先,引用org.apache.c ...

  9. 购物车 python作业

    功能要求:要求用户输入总资产,例如:2000显示商品列表,让用户根据序号选择商品,加入购物车购买,如果商品总额大于总资产,提示账户余额不足,否则,购买成功.附加:可充值.某商品移除购物车goods = ...

  10. 利用vs pcl库将多个PCD文件合并成一张PCD地图

    主机环境:win10系统,pcl库1.11.1, vs2019 pcl库安装以及环境配置如下连接: https://www.jb51.net/article/190710.htm 代码很简单,主要是做 ...