#############centos6.8IP常用操作命令#######################
DEVICE=eth0
TYPE=Ethernet
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=static
IPADDR=192.168.3.131
GATEWAY=192.168.3.2
NETMASK=255.255.255.0
DNS1=192.168.3.2

192.168.126.121 hdp-01
192.168.126.122 hdp-02
192.168.126.123 hdp-03
192.168.126.124 hdp-04

#############centos6.8修改系统信息常用操作命令#######################
[root@vae ~]# vi /etc/sysconfig/network-scripts/ifcfg-eth0
[root@vae ~]# vi /etc/udev/rules.d/70-persistent-net.rules
[root@vae ~]# vi /etc/sysconfig/network

#############防火墙常用操作命令#######################
[root@hdp-04 ~]# service iptables stop
iptables: Setting chains to policy ACCEPT: filter [ OK ]
iptables: Flushing firewall rules: [ OK ]
iptables: Unloading modules: [ OK ]
[root@hdp-04 ~]# chkconfig iptables off

#############windows hosts文件位置常用操作命令#######################
C:\Windows\System32\drivers\etc

#############配置域名映射关系常用操作命令#######################
vi /etc/hosts

192.168.3.131 hdp-01
192.168.3.132 hdp-02
192.168.3.133 hdp-03

#############配置免密登录常用操作命令#######################
ssh-keygen
ssh-copy-id hdp-01
ssh-copy-id hdp-02
ssh-copy-id hdp-03

#############datanode和namenode常用操作命令#######################
修改slaves 配置文件(datanode)
/apps/hadoop-2.8.1/etc/hadoop
vi slaves

初始化datanode和namenode数据目录(先删除原有的namenode和datanode的数据目录)
rm -rf /apps/dfs(每台机上都要执行)
hadoop namenode -format
单独启动datanode
hadoop-daemon.sh start datanode

cd /apps/hadoop-2.8.1/sbin
start-dfs.sh
http://hdp-01:50070

#############安装yarn常用操作命令#######################
start-yarn.sh
http://hdp-01:8088/cluster/nodes

安装启动
/apps/hadoop-2.8.1/sbin/start-yarn.sh
#############spark常用操作命令#######################
启动spark
/apps/spark-2.2.3-bin-hadoop2.7/sbin/start-all.sh
/apps/spark-2.2.3-bin-hadoop2.7/sbin/stop-all.sh
启动demo
/apps/spark-2.2.3-bin-hadoop2.7/bin/spark-submit --master spark://hdp-01:7077 --class org.apache.spark.examples.SparkPi /apps/spark-2.2.3-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.2.3.jar 1000
启动demo指定运行时候的参数
/apps/spark-2.2.3-bin-hadoop2.7/bin/spark-submit --master spark://hdp-01:7077 --class org.apache.spark.examples.SparkPi --executor-memory 512mb --total-executor-cores 2 /apps/spark-2.2.3-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.2.3.jar 100
查看spark运行情况
http://hdp-01:8080/

提交一个spark程序到spark-shell
用的是spark的local模式运行的
/apps/spark-2.2.3-bin-hadoop2.7/bin/spark-shell
指定master运行在集群上
/apps/spark-2.2.3-bin-hadoop2.7/bin/spark-shell --master spark://hdp-01:7077

启动,停止fastDfs
/apps/hadoop-2.8.1/sbin/start-dfs.sh
/apps/hadoop-2.8.1/sbin/stop-dfs.sh

#############hdfs命令行客户端的常用操作命令#######################
0、查看hdfs中的目录信息
hadoop fs -ls /hdfs路径

1、上传文件到hdfs中
hadoop fs -put /本地文件 /aaa
hadoop fs -copyFromLocal /本地文件 /hdfs路径 ## copyFromLocal等价于 put

hadoop fs -moveFromLocal /本地文件 /hdfs路径 ## 跟copyFromLocal的区别是:从本地移动到hdfs中

2、下载文件到客户端本地磁盘
hadoop fs -get /hdfs中的路径 /本地磁盘目录
hadoop fs -copyToLocal /hdfs中的路径 /本地磁盘路径 ## 跟get等价
hadoop fs -moveToLocal /hdfs路径 /本地路径 ## 从hdfs中移动到本地

3、在hdfs中创建文件夹
hadoop fs -mkdir -p /aaa/xxx

4、移动hdfs中的文件(更名)
hadoop fs -mv /hdfs的路径 /hdfs的另一个路径

5、删除hdfs中的文件或文件夹
hadoop fs -rm -r /aaa

6、修改文件的权限
hadoop fs -chown user:group /aaa
hadoop fs -chmod 700 /aaa

7、追加内容到已存在的文件
hadoop fs -appendToFile /本地文件 /hdfs中的文件

8、显示文本文件的内容
hadoop fs -cat /hdfs中的文件
hadoop fs -tail /hdfs中的文件
#########################################

Demo
启动fastDfs
/apps/hadoop-2.8.1/sbin/start-dfs.sh
查看fastDfs运行情况
http://hdp-01:50070/
上传要统计的文件
hadoop fs -put /apps/softs/kkk.txt /wc
启动spark
/apps/spark-2.2.3-bin-hadoop2.7/sbin/start-all.sh
查看spark运行情况
http://hdp-01:8080/
指定master运行在集群上
/apps/spark-2.2.3-bin-hadoop2.7/bin/spark-shell --master spark://hdp-01:7077
分组聚合
sc.textFile("hdfs://hdp-01:9000/wc").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect
分组聚合进行排序
sc.textFile("hdfs://hdp-01:9000/wc").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).sortBy(_._2,false).collect
停止fastDfs
/apps/hadoop-2.8.1/sbin/stop-dfs.sh
停止spark
/apps/spark-2.2.3-bin-hadoop2.7/sbin/stop-all.sh

hadoop常用操作命令的更多相关文章

  1. Hadoop HDFS常用操作命令

    hadoop常用命令:hadoop fs查看Hadoop HDFS支持的所有命令 hadoop fs –ls列出目录及文件信息 hadoop fs –lsr循环列出目录.子目录及文件信息 hadoop ...

  2. 【转载】Linux中常用操作命令

    说明:开始学习linux系统,为了方便查看,特转载一篇Linux中常用操作命令,转载地址:http://www.cnblogs.com/laov/p/3541414.html 正文: Linux简介及 ...

  3. (转)hadoop基本操作命令

    http://www.cnblogs.com/gpcuster/archive/2010/06/04/1751538.html 在这篇文章中,我们默认认为Hadoop环境已经由运维人员配置好直接可以使 ...

  4. HADOOP基本操作命令

    在这篇文章中,我们默认认为Hadoop环境已经由运维人员配置好直接可以使用. 假设Hadoop的安装目录HADOOP_HOME为/home/admin/hadoop. 启动与关闭 启动HADOOP 进 ...

  5. HBase常用操作命令

    HBase常用操作命令 1.进入HBase脚本客户端 #hbase shell #进入HBase脚本客户端 > whoami    #查看当前登录用户 > status           ...

  6. Storm常用操作命令及WordCount

    Storm常用操作命令 1.任务提交命令:storm jar [jar路径] [拓扑包名.拓扑类名] [拓扑名称] storm jar /export/servers/storm/examples/s ...

  7. linLINUX中常用操作命令

    LINUX中常用操作命令 Linux简介及Ubuntu安装 常见指令 系统管理命令 打包压缩相关命令 关机/重启机器 Linux管道 Linux软件包管理 vim使用 用户及用户组管理 文件权限管理 ...

  8. 转载 【Linux】Linux中常用操作命令

    [Linux]Linux中常用操作命令     https://www.cnblogs.com/laov/p/3541414.html#vim   Linux简介及Ubuntu安装 常见指令 系统管理 ...

  9. 转 Linux中常用操作命令

    http://blog.csdn.net/ljianhui/article/details/11100625 初窥Linux 之 我最常用的20条命令 玩过Linux的人都会知道,Linux中的命令的 ...

随机推荐

  1. 【6】学习C++之类的实例化及访问

    类就像一张图纸,如果不去实例化,制造出相应的零件,用处就不会那么大. 实例化类有两种,一个是从栈中实例化对象: class TV { public: ]; int type; void changeV ...

  2. cout,cerr和clog的区别

    官方解释: cout——Standard output stream Object of class ostream that represents the standard output strea ...

  3. PyCharm的使用教程

    1.1 安装 首先去下载最新的pycharm ,进行安装.可以直接在官网下载. 1.2 首次使用 1,点击Create New Project. 2, 输入项目名.路径.选择python解释器.如果没 ...

  4. SpringMVC整合Thymeleaf3

    (1).pom添加相关依赖 <dependency> <groupId>org.thymeleaf</groupId> <artifactId>thym ...

  5. [Kubernetes]容器日志的收集与管理

    在开始这篇文章之前,首先要明确一点: Kubernetes 中对容器日志的处理方式,都叫做 cluster-level-logging ,也就是说,这个日志处理系统,与容器, Pod 以及 Node ...

  6. L2-010 排座位 (25 分) (最短路)

    链接:https://pintia.cn/problem-sets/994805046380707840/problems/994805066135879680 题目: 布置宴席最微妙的事情,就是给前 ...

  7. JUC--Callable 以及Lock同步锁

    /** * 一.创建执行线程的方式三:实现Callable接口.相较于实现Runnable接口方式,方法可以有返回值,并且可以抛出异常 * 二.callable 需要FutureTask实现类的支持. ...

  8. php 过滤表单提交

    list($addressId,$couponId,$payType,$useIntegral,$mark,$combinationId,$pinkId,$seckill_id,$formId,$ba ...

  9. SecureCRT标签显示IP地址

    当使用SecureCRT连接到linux服务器后,SecureCRT的标签会随着操作目录的改变而改变,当连接多个的时候很不好区分,所以需要设置标签栏固定显示IP地址信息. options->Se ...

  10. MySQL存储过程中的事务执行失败之后获取错误信息

    1.表结构: 2. 存储过程中: 代码如下: BEGINDECLARE CONTINUE HANDLER FOR SQLEXCEPTIONBEGINROLLBACK;GET DIAGNOSTICS C ...