Hadoop-2.7.3-本地模式安装-wordcount例子
- 准备虚拟机:linux-rhel-7.4-server,由于不使用虚拟机进行联网,所以选择host-only网络模式。此处,需要再VitralBox的管理菜单中的主机网络管理器新建一个虚拟网卡。安装完成虚拟机之后,默认网卡是关闭的,需要进行开启,指令如下:
[root@hadoop-01 network-scripts]# vi ifcfg-enp0s3 #默认网卡配置 TYPE=Ethernet
PROXY_METHOD=none
BROWSER_ONLY=no
BOOTPROTO=dhcp
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
IPV6_ADDR_GEN_MODE=stable-privacy
NAME=enp0s3
UUID=9e448496-ecd5-4122-a91f-91f91bd15f5e
DEVICE=enp0s3
ONBOOT=yes #修改为 yes,默认是no然后重启虚拟机 - 此时再来查看本机网络配置如下,就可以与宿主机的同网段的虚拟网卡进行通讯了,如果宿主机启用的网络共享,那么可以让虚拟机进行联网
[root@hadoop-01 network-scripts]# ifconfig
enp0s3: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500 #已经有IP分配进来
inet 192.168.56.101 netmask 255.255.255.0 broadcast 192.168.56.255
inet6 fe80::bcf9:1d0d:e75d:500f prefixlen 64 scopeid 0x20<link>
ether 08:00:27:fb:11:51 txqueuelen 1000 (Ethernet)
RX packets 5763894 bytes 8204104505 (7.6 GiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 310622 bytes 23522131 (22.4 MiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0 lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536
inet 127.0.0.1 netmask 255.0.0.0
inet6 ::1 prefixlen 128 scopeid 0x10<host>
loop txqueuelen 1 (Local Loopback)
RX packets 1698 bytes 134024 (130.8 KiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 1698 bytes 134024 (130.8 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0 - 上传准备好的程序包
ZBMAC-C03VQ091H:实验介质 hadoop$ ls
ZooInspector.zip mysql-5.7.19-1.el7.x86_64.rpm-bundle.tar
ZooViewer.zip mysql-connector-java-5.1.43-bin.jar
apache-flume-1.7.0-bin.tar.gz pig-0.17.0.tar.gz
apache-hive-2.3.0-bin.tar.gz sqoop-1.4.5.bin__hadoop-0.23.tar.gz
hadoop-2.7.3.tar.gz virtualbox
hbase-1.3.1-bin.tar.gz winscp513setup.exe
hue-4.0.1.tgz zookeeper-3.4.10.tar.gz
jdk-8u144-linux-x64.tar.gz #使用SCP命令:
scp ./* hadoop-01@192.168.56.101:/home/hadoop-01/ - 安装JDK1.8并解压:
tar -zxvf jdk-8u144-linux-x64.tar.gz
- 设置当前用户的java_home 编辑~/.bash_profile
JAVA_HOME=/home/hadoop-02/sdk-home/jdk1.8.0_144
export JAVA_HOME PATH=$JAVA_HOME/bin:$PATH
export PATH - java环境变量设置成功后,使用 :java -version查看版本是否正确
- 解压hadoop
tar -zxvf hadoop-2.7.3.tar.gz
- hadoop目录结构解释:
[hadoop-02@hadoop-02 ~]$ tree -L 3 /home/hadoop-02/sdk-home/hadoop-2.7.3/
/home/hadoop-02/sdk-home/hadoop-2.7.3/
|-- bin # 可执行命令
| |-- container-executor
| |-- hadoop| |-- yarn
| `-- yarn.cmd
|-- etc
| `-- hadoop # 配置文件目录
| |-- capacity-scheduler.xml
| |-- configuration.xsl
| | |-- yarn-env.sh
| `-- yarn-site.xml
|-- include
| |-- hdfs.h
| | `-- TemplateFactory.hh
|-- lib
| `-- native
| |-- libhadoop.a
| |-- libhadooppipes.a
|
| `-- libhdfs.so.0.0.0
|-- libexec
| |-- hadoop-config.cmd
| |-- hadoop-config.sh
| |-- LICENSE.txt
|-- logs
| |-- hadoop-hadoop-02-datanode-hadoop-02.log
| |-- hadoop-hadoop-02-datanode-hadoop-02.out
| |-- |-- NOTICE.txt
|-- README.txt
|-- sbin # 启停脚本
| |-- distribute-exclude.sh
| |-- hadoop-daemon.sh| `-- yarn-daemons.sh
`-- share
|-- doc #文档目录
| `-- hadoop
`-- hadoop #所有jar包
|-- common
|-- hdfs
|-- httpfs
|-- kms
|-- mapreduce #内含示例jar包
|-- tools
`-- yarn - 设置hadoop的环境变量:
# /hadoop-2.7.3/etc/hadoop/hadoop-env.sh #修改JAVA_HOME为实际对应目录:
# The java implementation to use.
export JAVA_HOME=/home/hadoop-02/sdk-home/jdk1.8.0_144/ - 至此本机环境已经准备好找到hadoop的sbin目录执行start-all.sh
[hadoop-02@hadoop-02 sbin]$ ./start-all.sh
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
Incorrect configuration: namenode address dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured.
Starting namenodes on []
hadoop-02@localhost's password:
localhost: starting namenode, logging to /home/hadoop-02/sdk-home/hadoop-2.7.3/logs/hadoop-hadoop-02-namenode-hadoop-02.out
hadoop-02@localhost's password:
localhost: starting datanode, logging to /home/hadoop-02/sdk-home/hadoop-2.7.3/logs/hadoop-hadoop-02-datanode-hadoop-02.out
Starting secondary namenodes [0.0.0.0]
hadoop-02@0.0.0.0's password:
0.0.0.0: starting secondarynamenode, logging to /home/hadoop-02/sdk-home/hadoop-2.7.3/logs/hadoop-hadoop-02-secondarynamenode-hadoop-02.out
0.0.0.0: Exception in thread "main" java.lang.IllegalArgumentException: Invalid URI for NameNode address (check fs.defaultFS): file:/// has no authority.
0.0.0.0: at org.apache.hadoop.hdfs.server.namenode.NameNode.getAddress(NameNode.java:472)
0.0.0.0: at org.apache.hadoop.hdfs.server.namenode.NameNode.getAddress(NameNode.java:462)
0.0.0.0: at org.apache.hadoop.hdfs.server.namenode.NameNode.getServiceAddress(NameNode.java:455)
0.0.0.0: at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.initialize(SecondaryNameNode.java:229)
0.0.0.0: at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.<init>(SecondaryNameNode.java:192)
0.0.0.0: at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.main(SecondaryNameNode.java:671)
starting yarn daemons
starting resourcemanager, logging to /home/hadoop-02/sdk-home/hadoop-2.7.3/logs/yarn-hadoop-02-resourcemanager-hadoop-02.out
hadoop-02@localhost's password:
localhost: starting nodemanager, logging to /home/hadoop-02/sdk-home/hadoop-2.7.3/logs/yarn-hadoop-02-nodemanager-hadoop-02.out
[hadoop-02@hadoop-02 sbin]$ - 中间如果没有配置免密登录,会出现四次输入密码,注意观察日志在启动对应的服务。
- 检查服务是否正常,包含如下服务:
[hadoop-02@hadoop-02 sbin]$ jps
6305 Jps
6178 NodeManager
5883 ResourceManager
[hadoop-02@hadoop-02 sbin]$ - 运行wordcount 示例:
[hadoop-02@hadoop-02 sbin]$ hadoop jar /home/hadoop-02/sdk-home/hadoop-2.7.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar wordcount /home/hadoop-02/test_hadoop/wordcount.txt /home/hadoop-02/test_hadoop/wordcount_output/
- 到输出目录就能看到结果文件如下:
[hadoop-02@hadoop-02 sbin]$ cd /home/hadoop-02/test_hadoop/wordcount_output
[hadoop-02@hadoop-02 wordcount_output]$ ls
_SUCCESS part-r-00000 - 至此本地环境搭建就介绍到这里
Hadoop-2.7.3-本地模式安装-wordcount例子的更多相关文章
- hbase本地模式-安装及基本测试
解压缩hbase二进制安装文件到/opt目录下: #tar -zxvf hbase-0.98.6-cdh5.3.6.tar.gz -C /opt/cdh-5.3.6/ 编辑配置文件,这里仅配置数据目录 ...
- Zookeeper本地模式安装
本地模式安装部署 1.安装前准备 (1)安装Jdk (2)拷贝Zookeeper安装包到Linux系统下 (3)解压到指定目录 tar -zxvf zookeeper-3.4.10.tar.gz -C ...
- Hadoop生态圈-Kafka的本地模式部署
Hadoop生态圈-Kafka的本地模式部署 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.Kafka简介 1>.什么是JMS 答:在Java中有一个角消息系统的东西,我 ...
- Hadoop 本地模式安装
0. 说明 本地模式:使用的存储系统,是Linux系统 提前安装好 JDK 参考 CentOS7 安装 JDK 1. 将 Hadoop 的安装包通过 Xftp 发送到centos 用户的 home 目 ...
- 【Hadoop 分布式部署 八:分布式协作框架Zookeeper架构功能讲解 及本地模式安装部署和命令使用 】
What is Zookeeper 是一个开源的分布式的,为分布式应用提供协作服务的Apache项目 提供一个简单的原语集合,以便与分布式应用可以在他之上构建更高层次的同步服务 设计非常简单易于编 ...
- centos6.6安装hadoop-2.5.0(一、本地模式安装)
操作系统:centos6.6(一台服务器) 环境:selinux disabled:iptables off:java 1.8.0_131 安装包:hadoop-2.5.0.tar.gz hadoop ...
- hadoop单机and集群模式安装
最近在学习hadoop,第一步当然是亲手装一下hadoop了. 下面记录我hadoop安装的过程: 注意: 1,首先明确hadoop的安装是一个非常简单的过程,装hadoop的主要工作都在配置文件上, ...
- tachyon 本地模式安装
本地模式不用考虑hadoop的版本,所以直接下载 binary 包或者自己编译 1.配置主机名.JDK.关闭防火墙.关闭Selinux.配置hosts ... ... 2.设置本机SSH免密码登陆 . ...
- 【node.js】本地模式安装express:'express' 不是内部或外部命令,也不是可运行的程序或批处理文件。
今天闲来无事想起了node.js,因此到网上下载了一个node.js的安装程序进行安装.其中: 安装程序:node-v0.11.13-x64.msi PC系统:Windows 7 自定义安装路径:D: ...
随机推荐
- CF994B Knights of a Polygonal Table 第一道 贪心 set/multiset的用法
Knights of a Polygonal Table time limit per test 1 second memory limit per test 256 megabytes input ...
- Patch
http://www.cnblogs.com/cute/archive/2011/04/29/2033011.html zhezhelin diff和patch使用指南 diff和patch是一对工具 ...
- 【Spring】 IOC Base
一.关于容器 1. ApplicationContext和BeanFactory 2. 配置文件 XML方式 Java-configuration 方式 @Configuration 3. 初始化容器 ...
- Word 远程调用失败:异常来自 HRESULT:0x800706BE
之前服务器上一直运行正常的,这几天突然报错 “远程过程调用失败. (异常来自 HRESULT:0x800706BE) ” 解决方案:组件服务—我的电脑—属性—COM安全—编辑默认值 添加各种用户权限 ...
- Bootstrap4默认样式不对胃口?教你使用NPM+Webpack+SASS来定制
Bootstrap 是一个流行的前端样式库,可以方便快速的构建应用,但默认样式可能不尽人意,本文就介绍如何使用 NPM, Webpack, SASS 针对它的源码来定制自己的主题.版本使用的是 Boo ...
- 实验吧CTF练习题---WEB---Forms解析
实验吧web之Forms 地址:http://www.shiyanbar.com/ctf/1819 flag值:ctf{forms_are_easy} 解题步骤: 1.查看页面源代码,从中发现&q ...
- 洛谷 P1525 关押罪犯 NOIp2010提高组 (贪心+并查集)
题目链接:https://www.luogu.org/problemnew/show/P1525 题目分析 通过分析,我们可以知道,这道题的抽象意义就是把一个带边权的无向图,分成两个点集,使得两个集合 ...
- ELKBR部署检测项目日志
ELK filebeat:具有日志收集功能,相比logstash,+filebeat更轻量,占用资源更少,适合客户端使用. redis消息队列选型:Redis 服务器通常都是用作 NoSQL 数据库, ...
- 记一次往集群添加机器,liveNodes缺少机器的情况
1.背景 公司线下环境,原本有三台虚拟机组成的集群(cdh5.3.6),由于硬件配置比较低,申请了新的三台机器,8核8G内存,在上面部署了cdh5.11.1,较新的cdh集群. 由于远来的三台还在使用 ...
- Spring Boot2 系列教程(六)自定义 Spring Boot 中的 starter
我们使用 Spring Boot,基本上都是沉醉在它 Stater 的方便之中.Starter 为我们带来了众多的自动化配置,有了这些自动化配置,我们可以不费吹灰之力就能搭建一个生产级开发环境,有的小 ...