Hadoop 搭建集群的步骤
1、安装jdk,配置环境变量
root@localhost java]# vi /etc/profile
在profile中添加如下内容:
#set java environment
export JAVA_HOME=/usr/java/jdk1.7.0_79
export JRE_HOME=$JAVA_HOME/jre
export CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export JAVA_HOME JRE_HOME CLASS_PATH PATH
搭建步骤指南:
http://blog.csdn.net/ab198604/article/details/8250461
http://www.powerxing.com/install-hadoop/
https://www.cnblogs.com/DreamDriver/p/6597020.html
2、新建hadoop 用户,赋给管理员权限
$sudo useradd -m hadoop -s /bin/bash
sudo passwd hadoop
sudo adduser hadoop sudo
3、配置单机hadoop环境
- 进入hadoop 安装目录,输入在本地机器(192.168.211.128)上使用ssh-keygen产生公钥私钥对
$ ssh-keygen -t rsa
- 用ssh-copy-id将公钥复制到远程机器中
ssh-copy-id hadoop@192.168.211.129 ( 复制到远程服务器 salve1 ) ## 输入远程服务器的密码,最后一次输入密码,复制成功之后,就再不用输入密码了
4、手动下载hadoop安装包,本人下载的是 hadoop-2.6.5.tar.gz 包,解压包
hadoop@ubuntu-virtual-machine:~$ ls
hadoop-2.6.5 hadoop-2.6.5.tar.gz
hadoop@ubuntu-virtual-machine:~$ tar zxvf hadoop-2.6.5.tar.gz
5、修改hadoop中的配置文件:
- hadoop 目录 etc文件夹下的 hadoop-env.sh,增加 export JAVA_HOME=/usr/java/jdk1.8.0_152)
- etc文件夹下的core-site.xml文件用文本编辑器打开,添加如下语句<property><name>fs.default.name</name><value>hdfs://localhost:9000</value></property>
这是hadoop核心的配置文件,这里配置的是HDFS的地址和端口号。
- etc文件夹下的hdfs-site.xml文件用文本编辑器打开,添加如下语句<property><name>dfs.replication</name><value>1</value></property>
这是Hadoop中的HDFS的配置,配置的备份方式默认为3,在单机版的Hadoop中,需要将其改为1.
- etc文件夹下的mapred-site.xml文件用文本编辑器打开,添加如下语句
<property>
<name>mapred.job.tracker</name><value>localhost:9001</value></property>
这是Hadoop中MapReduce的配置文件,配置的是JobTracker的地址和端口。 - 在 sbin目录下打开 hadoop-env.sh yarn-env.sh中添加 export JAVA_HOME=/usr/java/jdk1.8.0_152
6、在初次安装和使用Hadoop之前,需要格式化分布式文件系统HDFS。使用如下命令:
# bin/hadoop namenode -format
7、启动Hadoop守护进程,命令如下
Hadoop 搭建集群的步骤的更多相关文章
- redis 一二事 - 搭建集群缓存服务器
在如今并发的环境下,对大数据量的查询采用缓存是最好不过的了,本文使用redis搭建集群 (个人喜欢redis,对memcache不感冒) redis是3.0后增加的集群功能,非常强大 集群中应该至少有 ...
- 基于Hadoop分布式集群YARN模式下的TensorFlowOnSpark平台搭建
1. 介绍 在过去几年中,神经网络已经有了很壮观的进展,现在他们几乎已经是图像识别和自动翻译领域中最强者[1].为了从海量数据中获得洞察力,需要部署分布式深度学习.现有的DL框架通常需要为深度学习设置 ...
- Hadoop分布式集群搭建hadoop2.6+Ubuntu16.04
前段时间搭建Hadoop分布式集群,踩了不少坑,网上很多资料都写得不够详细,对于新手来说搭建起来会遇到很多问题.以下是自己根据搭建Hadoop分布式集群的经验希望给新手一些帮助.当然,建议先把HDFS ...
- Hadoop分布式集群搭建
layout: "post" title: "Hadoop分布式集群搭建" date: "2017-08-17 10:23" catalog ...
- hadoop分布式集群的搭建
电脑如果是8G内存或者以下建议搭建3节点集群,如果是搭建5节点集群就要增加内存条了.当然实际开发中不会用虚拟机做,一些小公司刚刚起步的时候会采用云服务,因为开始数据量不大. 但随着数据量的增大才会考虑 ...
- hadoop+spark集群搭建入门
忽略元数据末尾 回到原数据开始处 Hadoop+spark集群搭建 说明: 本文档主要讲述hadoop+spark的集群搭建,linux环境是centos,本文档集群搭建使用两个节点作为集群环境:一个 ...
- hadoop ha集群搭建
集群配置: jdk1.8.0_161 hadoop-2.6.1 zookeeper-3.4.8 linux系统环境:Centos6.5 3台主机:master.slave01.slave02 Hado ...
- 使用docker搭建hadoop分布式集群
使用docker搭建部署hadoop分布式集群 在网上找了非常长时间都没有找到使用docker搭建hadoop分布式集群的文档,没办法,仅仅能自己写一个了. 一:环境准备: 1:首先要有一个Cento ...
- hadoop+zookeeper集群高可用搭建
hadoop+zookeeper集群高可用搭建 Senerity 发布于 2 ...
随机推荐
- 保存标注对象到txt 制作xml
1.算法将检测的目标名称和目标位置保存到txt文本 图片名 xmin ymin xmax ymax (4).avi237face.jpg4smoke 83 234 142 251hand 119 2 ...
- NodeJS基础(二)
一.动态获取文件路径 var fs = require('fs') var path = require('path') // 一般在开发命令行工具的时候,这个设计是必须有用的一个特性 // npm ...
- 搭建k8s(一)
安装VMWare VMWare官网地址 点击下载-->WorkStation Pro-->点击linux免费试用版 下载安装完成后,创建一个虚拟机,去centos官网找到centos7is ...
- 5、继承(extends)
继承主要目的是提高代码的复用性,但是只有在类与类之间有所属关系的时候才能继承,不能为了获取其他类的功能而继承,Java中只有单继承,不支持多继承,但可以多层继承 当父类中定义了相同的功能,内容不同时, ...
- vue-cli脚手架build目录中的webpack.prod.conf.js配置文件
// 下面是引入nodejs的路径模块 var path = require('path') // 下面是utils工具配置文件,主要用来处理css类文件的loader var utils = req ...
- Public_1.bat
:: targetset targetFileName=Public_2set targetPath=./:: sourceset sourceFileName=Public_1@echo ui ru ...
- 二叉树之AVL树
高度为 h 的 AVL 树,节点数 N 最多2^h − 1: 最少N(h)=N(h− 1) +N(h− 2) + 1. 最少节点数n 如以斐波那契数列可以用数学归纳法证明: 即: N(0) = 0 ( ...
- javascript 十进制转换为二进制
1.十进制转换为二进制 var toBin = (n) => { if(n == 0) return '0'; var res = ''; while(n != 0) { res = n % 2 ...
- AngelToken钱包——值得投资与存币的钱包
Angeltoken有多好? Angeltoken到底值不值得我们投资? 简而言之 Angeltoken结合了:钱包+机器人,钱包+币币交易,钱包+宠物,钱包+结算代币等等. 它颠覆传统的运营和赚钱模 ...
- [NOIP2014D2]
T1 Problem 洛谷 Solution 枚举那个点的位置,再O(n)扫一遍求出覆盖的公共场合的数量... 所以时间复杂度为O(128 * 128 * n) Code #include<cm ...