卸载Ambari集群
清理ambari安装的hadoop集群
本文针对redhat或者centos
对于测试集群,如果通过ambari安装hadoop集群后,想重新再来一次的话,需要清理集群。
对于安装了很多hadoop组件的话,这个工作很繁琐。接下来是我整理的清理过程。
1,通过ambari将集群中的所用组件都关闭,如果关闭不了,直接kill -9 XXX
2,关闭ambari-server,ambari-agent
- ambari-server stop
- ambari-agent stop
3,卸载安装的软件
- yum remove hadoop_2* hdp-select* ranger_2* zookeeper* bigtop* atlas-metadata* ambari* postgresql spark*
以上命令可能不全,执行完一下命令后,再执行
- yum list | grep @HDP
查看是否还有没有卸载的,如果有,继续通过#yum remove XXX卸载
4,删除postgresql的数据
postgresql软件卸载后,其数据还保留在硬盘中,需要把这部分数据删除掉,如果不删除掉,重新安装ambari-server后,有可能还应用以前的安装数据,而这些数据时错误数据,所以需要删除掉。
- rm -rf /var/lib/pgsql
5,删除用户
ambari安装hadoop集群会创建一些用户,清除集群时有必要清除这些用户,并删除对应的文件夹。这样做可以避免集群运行时出现的文件访问权限错误的问题。
- userdel oozie
- userdel hive
- userdel ambari-qa
- userdel flume
- userdel hdfs
- userdel knox
- userdel storm
- userdel mapred
- userdel hbase
- userdel tez
- userdel zookeeper
- userdel kafka
- userdel falcon
- userdel sqoop
- userdel yarn
- userdel hcat
- userdel atlas
- userdel spark
- rm -rf /home/atlas
- rm -rf /home/accumulo
- rm -rf /home/hbase
- rm -rf /home/hive
- rm -rf /home/oozie
- rm -rf /home/storm
- rm -rf /home/yarn
- rm -rf /home/ambari-qa
- rm -rf /home/falcon
- rm -rf /home/hcat
- rm -rf /home/kafka
- rm -rf /home/mahout
- rm -rf /home/spark
- rm -rf /home/tez
- rm -rf /home/zookeeper
- rm -rf /home/flume
- rm -rf /home/hdfs
- rm -rf /home/knox
- rm -rf /home/mapred
- rm -rf /home/sqoop
6,删除ambari遗留数据
- rm -rf /var/lib/ambari*
- rm -rf /usr/lib/python2.6/site-packages/ambari_*
- rm -rf /usr/lib/python2.6/site-packages/resource_management
- rm -rf /usr/lib/ambari-*
- rm -rf /etc/ambari-*
7,删除其他hadoop组件遗留数据
- m -rf /etc/hadoop
- rm -rf /etc/hbase
- rm -rf /etc/hive
- rm -rf /etc/oozie
- rm -rf /etc/sqoop
- rm -rf /etc/zookeeper
- rm -rf /etc/flume
- rm -rf /etc/storm
- rm -rf /etc/hive-hcatalog
- rm -rf /etc/tez
- rm -rf /etc/falcon
- rm -rf /etc/knox
- rm -rf /etc/hive-webhcat
- rm -rf /etc/kafka
- rm -rf /etc/slider
- rm -rf /etc/storm-slider-client
- rm -rf /etc/spark
- rm -rf /var/run/spark
- rm -rf /var/run/hadoop
- rm -rf /var/run/hbase
- rm -rf /var/run/zookeeper
- rm -rf /var/run/flume
- rm -rf /var/run/storm
- rm -rf /var/run/webhcat
- rm -rf /var/run/hadoop-yarn
- rm -rf /var/run/hadoop-mapreduce
- rm -rf /var/run/kafka
- rm -rf /var/log/hadoop
- rm -rf /var/log/hbase
- rm -rf /var/log/flume
- rm -rf /var/log/storm
- rm -rf /var/log/hadoop-yarn
- rm -rf /var/log/hadoop-mapreduce
- rm -rf /var/log/knox
- rm -rf /usr/lib/flume
- rm -rf /usr/lib/storm
- rm -rf /var/lib/hive
- rm -rf /var/lib/oozie
- rm -rf /var/lib/flume
- rm -rf /var/lib/hadoop-hdfs
- rm -rf /var/lib/knox
- rm -rf /var/log/hive
- rm -rf /var/log/oozie
- rm -rf /var/log/zookeeper
- rm -rf /var/log/falcon
- rm -rf /var/log/webhcat
- rm -rf /var/log/spark
- rm -rf /var/tmp/oozie
- rm -rf /tmp/ambari-qa
- rm -rf /var/hadoop
- rm -rf /hadoop/falcon
- rm -rf /tmp/hadoop
- rm -rf /tmp/hadoop-hdfs
- rm -rf /usr/hdp
- rm -rf /usr/hadoop
- rm -rf /opt/hadoop
- rm -rf /tmp/hadoop
- rm -rf /var/hadoop
- rm -rf /hadoop
- userdel nagios
- userdel hive
- userdel ambari-qa
- userdel hbase
- userdel oozie
- userdel hcat
- userdel mapred
- userdel hdfs
- userdel rrdcached
- userdel zookeeper
- userdel sqoop
- userdel puppet
- 可以查看:http://www.cnblogs.com/cenyuhai/p/3287855.html
- userdel nagios
- userdel hive
- userdel ambari-qa
- userdel hbase
- userdel oozie
- userdel hcat
- userdel mapred
- userdel hdfs
- userdel rrdcached
- userdel zookeeper
- userdel sqoop
- userdel puppet
- userdel nagios
- userdel hive
- userdel ambari-qa
- userdel hbase
- userdel oozie
- userdel hcat
- userdel mapred
- userdel hdfs
- userdel rrdcached
- userdel zookeeper
- userdel sqoop
- userdel puppet
- userdel -r accumulo
- userdel -r ambari-qa
- userdel -r ams
- userdel -r falcon
- userdel -r flume
- userdel -r hbase
- userdel -r hcat
- userdel -r hdfs
- userdel -r hive
- userdel -r kafka
- userdel -r knox
- userdel -r mapred
- userdel -r oozie
- userdel -r ranger
- userdel -r spark
- userdel -r sqoop
- userdel -r storm
- userdel -r tez
- userdel -r yarn
- userdel -r zeppelin
- userdel -r zookeeper
- userdel -r kms
- userdel -r sqoop2
- userdel -r hue
- rm -rf /var/lib/hbase
- rm -rf /var/lib/hive
- rm -rf /var/lib/oozie
- rm -rf /var/lib/sqoop
- rm -rf /var/lib/zookeeper
- rm -rf /var/lib/hadoop-hdfs
- rm -rf /var/lib/hadoop-mapreduce
8,清理yum数据源
- #yum clean all
通过以上清理后,重新安装ambari和hadoop集群(包括HDFS,YARN+MapReduce2,Zookeeper,Ambari Metrics,Spark)成功。如果安装其他组件碰到由于未清理彻底而导致的问题,请留言指出需要清理的数据,本人会补全该文档。
然后后续的重新搭建的方式,可以参考ambari2.6.0搭建文档。
卸载Ambari集群的更多相关文章
- Ambari集群移动现有复制到另外地方或更改ip地址,导致各项服务组件上为黄色问号代表心跳丢失的解决方案(图文详解)(博主推荐)
前言 最近,是在做集群搬移工作,大家肯定会遇到如下的场景. (1) 比如,你新购买的电脑,初步者学习使用Ambari集群.从旧电脑复制到新电脑这边来. (2) 比如,你公司Ambari集群的ip,因业 ...
- Ambari集群里操作时典型权限问题put: `/home/bigdata/1.txt': No such file or directory的解决方案(图文详解)
不多说,直接上干货! 问题详情 明明put该有的文件在,可是怎么提示的是文件找不到的错误呢? 我就纳闷了put: `/home/bigdata/1.txt': No such file or dire ...
- 给Ambari集群里安装可视化分析利器工具Hue步骤(图文详解)
扩展博客 以下,是我在手动的CDH版本平台下,安装Hue. CDH版本大数据集群下搭建Hue(hadoop-2.6.0-cdh5.5.4.gz + hue-3.9.0-cdh5.5.4.tar.gz) ...
- 给ambari集群里的kafka安装基于web的kafka管理工具Kafka-manager(图文详解)
不多说,直接上干货! 参考博客 基于Web的Kafka管理器工具之Kafka-manager的编译部署详细安装 (支持kafka0.8.0.9和0.10以后版本)(图文详解)(默认端口或任意自定义端口 ...
- Ambari 集群时间同步配置教程
本文原始地址:https://sitoi.cn/posts/27560.html 步骤 在时间同步主节点创建 ntp.conf 文件 在时间同步从节点上创建 ntp.conf 文件 修改所有节点时区 ...
- Hadoop - Ambari集群管理剖析
1.Overview Ambari是Apache推出的一个集中管理Hadoop的集群的一个平台,可以快速帮助搭建Hadoop及相关以来组件的平台,管理集群方便.这篇博客记录Ambari的相关问题和注意 ...
- Ambari集群的搭建(离线安装)
我们先克隆几台机器 我们打开克隆出来的机器 我们先把主机名修改一下 我们把主机名改成am2 下一步我们来配置网卡 把原来的eth0的注释掉,把现在的eth1改成eth0,同时把mac地址记下来 保存退 ...
- 给Ambari集群里安装基于Hive的大数据实时分析查询引擎工具Impala步骤(图文详解)
不多说,直接上干货! Impala和Hive的关系(详解) 扩展博客 给Clouderamanager集群里安装基于Hive的大数据实时分析查询引擎工具Impala步骤(图文详解) 参考 horton ...
- nagios新增监控集群、卸载监控集群批量操作
1.一定要找应用侧确认每台节点上需要监控的进程,不要盲目以为所有hadoop集群的zk.journal啥的都一样,切记! 2.被监控节点只需要安装nagios-plugin和nrpe,依赖需要安装xi ...
随机推荐
- 【小知识点】如何通过jq获取textarea的值
textarea和input本质差不多,只不过input是一行文本,textarea是多行文本. 所以获取textarea的值的方法和获取input的值的方法是一致的, $('textarea').v ...
- vim调试Shell脚本: unexpected EOF while looking for matching
往往在编写脚本完后测试,出现错误需要调试,vim 是一种强大的文本编辑器,对调试也很有帮助.如果指定用不同的颜色显示某些错误,通过配置 .vimrc 文件就会替您完成大部分调试工作. 小柏在测试脚本时 ...
- Mysql的管理
Linux系统中:mysql进入的命令为mysql -u root -p +你的mysql密码. Mysql是如何添加用户呢? 在mysql命令行下,使用use mysql;进入mysql的数据库中. ...
- [Docker][Hadoop]基于Docker1.12.3 搭建Hadoop 2.7.2 集群以及简单分析
一 Hadoop简介 Hadoop 2.7.2 Doc refer to http://hadoop.apache.org/docs/r2.7.2/ HDFS (The following is a ...
- nginx简单反向代理实例
一.要做什么? 实例最后实现的效果图: 我们在浏览器地址栏上输入 wangtong,代理服务器获取请求,将请求转发至指定的 tomcat 上 二.怎样做? 1.准备环境 虚拟中中需要安装 JDK+To ...
- Window脚本学习笔记之定时关闭进程
定时关闭进程, 从字面上即可看出操作分为两个步骤,即: 1,结合“任务计划程序”,定时. “计算机->管理->计划任务程序”,作用是让系统定时启动脚本文件(bat脚本). 2,结合“nt ...
- ubuntu 18.04 enp8s0更改网口名称为eth0
尝试各种方法均不成功,后参考如下方法终于成功: 方法一:单纯改网卡名,重启后显示原网卡名. 如我的网卡名是enp8s0 >> ip link set enp8s0 down //关闭网卡 ...
- PWA
附一个示例e6书写 todolist的示例,切换list的状态: //todolist示例 const toggleTodo = (id)=>{ setTodos(todos => tod ...
- Spring-HelloSpring-IOC创建对象的方式
3.HelloSpring 思考 Hello 对象是谁创建的 ? [ hello 对象是由Spring创建的 ] Hello 对象的属性是怎么设置的 ? [hello 对象的属性是由Spring容器设 ...
- js.map文件意义(转)
什么是source map文件 source map文件是js文件压缩后,文件的变量名替换对应.变量所在位置等元信息数据文件,一般这种文件和min.js主文件放在同一个目录下. 比如压缩后原变量是ma ...