hadopp 环境搭建

1、 每个结点分别产生公私密钥
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

[root@master .ssh]# cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

yum -y install openssh-clients

当master就可以顺利安全地访问这两个slave结点了。操作过程如下:
[root@node1 ~]# scp root@master:~/.ssh/id_dsa.pub ./master_dsa.pubThe authenticity of host 'master (30.96.76.220)' can't be established.RSA key fingerprint is ae:8c:7f:00:df:40:b8:ec:20:4b:53:78:98:46:8a:c5.Are you sure you want to continue connecting (yes/no)? yesWarning: Permanently added 'master,30.96.76.220' (RSA) to the list of known hosts.root@master's password:id_dsa.pub 100% 601 0.6KB/s 00:00[root@node1 .ssh]# cat master_dsa.pub >> authorized_keys
[root@master .ssh]# ssh node1The authenticity of host 'node1 (30.96.76.221)' can't be established.RSA key fingerprint is ae:8c:7f:00:df:40:b8:ec:20:4b:53:78:98:46:8a:c5.Are you sure you want to continue connecting (yes/no)? yesWarning: Permanently added 'node1,30.96.76.221' (RSA) to the list of known hosts.root@node1's password:Last login: Fri Sep 9 17:42:15 2016 from localhost[root@node1 ~]# ll总用量 24-rw-------. 1 root root 1144 9月 9 18:11 anaconda-ks.cfg-rw-r--r--. 1 root root 13231 9月 9 18:10 install.log-rw-r--r--. 1 root root 3482 9月 9 18:09 install.log.syslog[root@node1 ~]# pwd/root[root@node1 ~]# exitlogoutConnection to node1 closed.[root@master .ssh]#
[root@master .ssh]# scp root@master:~/.ssh/id_dsa.pub ./master_dsa.pubThe authenticity of host 'master (30.96.76.220)' can't be established.RSA key fingerprint is ae:8c:7f:00:df:40:b8:ec:20:4b:53:78:98:46:8a:c5.Are you sure you want to continue connecting (yes/no)? yesWarning: Permanently added 'master,30.96.76.220' (RSA) to the list of known hosts.id_dsa.pub 100% 601 0.6KB/s 00:00[root@master .ssh]# ssh masterLast login: Fri Sep 9 17:42:39 2016 from localhost[root@master ~]# hostnamemaster[root@master ~]# exitlogoutConnection to master closed.
<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property><name>fs.default.name</name><value>hdfs://master:9000</value><final>true></final></property><property><name>hadoop.tmp.dir</name><value>/urs/hadoop/tmp</value><description>A base for other temporary directories</description></property></configuration>
<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property><name>dfs.name.dir</name><value>/usr/hadoop-1.2.1/name</value><final>true</final></property><property><name>dfs.data.dir</name><value>/usr/hadoop-1.2.1/data</value><final>true</final></property><property><name>dfs.replication</name><value>2</value><final>true</final></property></configuration>
<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property><name>mapred.job.tracker</name><value>30.96.76.220:9001</value></property></configuration>


[root@master ~]# hadoop namenode -format16/09/10 17:03:49 INFO namenode.NameNode: STARTUP_MSG:/************************************************************STARTUP_MSG: Starting NameNodeSTARTUP_MSG: host = master/30.96.76.220STARTUP_MSG: args = [-format]STARTUP_MSG: version = 1.2.1STARTUP_MSG: build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.2 -r 1503152; compiled by 'mattf' on Mon Jul 22 15:23:09 PDT 2013STARTUP_MSG: java = 1.7.0_76************************************************************/16/09/10 17:03:49 INFO util.GSet: Computing capacity for map BlocksMap16/09/10 17:03:49 INFO util.GSet: VM type = 64-bit16/09/10 17:03:49 INFO util.GSet: 2.0% max memory = 101364531216/09/10 17:03:49 INFO util.GSet: capacity = 2^21 = 2097152 entries16/09/10 17:03:49 INFO util.GSet: recommended=2097152, actual=209715216/09/10 17:03:50 INFO namenode.FSNamesystem: fsOwner=root16/09/10 17:03:50 INFO namenode.FSNamesystem: supergroup=supergroup16/09/10 17:03:50 INFO namenode.FSNamesystem: isPermissionEnabled=true16/09/10 17:03:50 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=10016/09/10 17:03:50 INFO namenode.FSNamesystem: isAccessTokenEnabled=false accessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)16/09/10 17:03:50 INFO namenode.FSEditLog: dfs.namenode.edits.toleration.length = 016/09/10 17:03:50 INFO namenode.NameNode: Caching file names occuring more than 10 times16/09/10 17:03:50 INFO common.Storage: Image file /usr/hadoop-1.2.1/name/current/fsimage of size 110 bytes saved in 0 seconds.16/09/10 17:03:51 INFO namenode.FSEditLog: closing edit log: position=4, editlog=/usr/hadoop-1.2.1/name/current/edits16/09/10 17:03:51 INFO namenode.FSEditLog: close success: truncate to 4, editlog=/usr/hadoop-1.2.1/name/current/edits16/09/10 17:03:51 INFO common.Storage: Storage directory /usr/hadoop-1.2.1/name has been successfully formatted.16/09/10 17:03:51 INFO namenode.NameNode: SHUTDOWN_MSG:/************************************************************SHUTDOWN_MSG: Shutting down NameNode at master/30.96.76.220************************************************************/



hadopp 环境搭建的更多相关文章
- 大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机)
引言 在大数据学习系列之一 ----- Hadoop环境搭建(单机) 成功的搭建了Hadoop的环境,在大数据学习系列之二 ----- HBase环境搭建(单机)成功搭建了HBase的环境以及相关使用 ...
- 大数据学习系列之六 ----- Hadoop+Spark环境搭建
引言 在上一篇中 大数据学习系列之五 ----- Hive整合HBase图文详解 : http://www.panchengming.com/2017/12/18/pancm62/ 中使用Hive整合 ...
- .NET Core系列 : 1、.NET Core 环境搭建和命令行CLI入门
2016年6月27日.NET Core & ASP.NET Core 1.0在Redhat峰会上正式发布,社区里涌现了很多文章,我也计划写个系列文章,原因是.NET Core的入门门槛相当高, ...
- Azure Service Fabric 开发环境搭建
微服务体系结构是一种将服务器应用程序构建为一组小型服务的方法,每个服务都按自己的进程运行,并通过 HTTP 和 WebSocket 等协议相互通信.每个微服务都在特定的界定上下文(每服务)中实现特定的 ...
- rnandroid环境搭建
react-native 环境搭建具体步骤这个大家已经玩烂了,这个主要是记录下来自己做win7系统遇到的坑 1.com.android.ddmlib.installexception 遇到这个问题,在 ...
- python开发环境搭建
虽然网上有很多python开发环境搭建的文章,不过重复造轮子还是要的,记录一下过程,方便自己以后配置,也方便正在学习中的同事配置他们的环境. 1.准备好安装包 1)上python官网下载python运 ...
- springMVC初探--环境搭建和第一个HelloWorld简单项目
注:此篇为学习springMVC时,做的笔记整理. MVC框架要做哪些事情? a,将url映射到java类,或者java类的方法上 b,封装用户提交的数据 c,处理请求->调用相关的业务处理—& ...
- 【定有惊喜】android程序员如何做自己的API接口?php与android的良好交互(附环境搭建),让前端数据动起来~
一.写在前面 web开发有前端和后端之分,其实android还是有前端和后端之分.android开发就相当于手机app的前端,一般都是php+android或者jsp+android开发.androi ...
- Nexus(一)环境搭建
昨天,成功搭建了自己的 Maven 环境(详见:Maven(一)环境搭建),今天就来研究和探讨下 Nexus 的搭建! 使用背景: 安装环境:Windows 10 -64位 JDK版本:1.7 Mav ...
随机推荐
- PHP中Smarty的fetch()方法
fetch 取得输出的内容 string fetch (string template [, string cache_id [, string compile_id]]) 返回一个模板输出的内容(H ...
- fMRI数据分析处理原理及方法————转自网络
fMRI数据分析处理原理及方法 来源: 整理文件的时候翻到的,来源已经找不到了囧感觉写得还是不错,贴在这里保存. 近年来,血氧水平依赖性磁共振脑功能成像(Blood oxygenation level ...
- LNMPA是什么?
也许大家对LAMP.LNMP比较熟悉,LAMP代表Linux下Apache.MySQL.PHP这种网站服务器架构:LNMP代表的是Linux下Nginx.MySQL.PHP这种网站服务器架构.LNMP ...
- CA证书申请+IIS配置HTTPS+默认访问https路径
引用别人博文内容:https://www.cnblogs.com/lichunting/p/9274422.html 一.CA证书申请 (一). 新StartSSL注册帐号 1. StartSS ...
- [spring]AOP(切面)编程
AOP 即 Aspect Oriented Program 面向切面编程 首先,在面向切面编程的思想里面,把功能分为核心业务功能,和周边功能. 所谓的核心业务,比如登陆,增加数据,删除数据都叫核心业务 ...
- body和document的梗
http://bbs.zhinengshe.com/thread-1199-1-1.html 1. 在空白的页面加点击事件,是加在body上么 ? <!DOCTYPE html> < ...
- JavaScript高级编程学习笔记(第三章之一)
继续记笔记,JavaScript越来越有意思了. 继续... 第三章:JavaScript基础 ECMAScript语法在很大程度上借鉴了C和其它类似于C的语言,比如Java和Perl. 大小写敏感: ...
- ASP.NET(C#) 使用 SqlBulkCopy 实现批量插入SQL(快捷简单)
业务需要,系统在处理数据时,每暂存一列数据将他插入到右侧的表格中,再执行批量保存,如图所示: //以前的做法可能是生成一堆 insert into xx values xxx 的sql语句,在程序中去 ...
- Java工程师研发面经大合集
百度研发面经整合版 软件研发工程师 基础研发工程师 百度智能云 百度核心搜索部 百度今年的提前批有点奇怪,好像都不走流程,牛客上好几个百度内推的帖子,我投了几个,基本上都是百度智能云的,当然也有其他部 ...
- 什么是maven?maven中的pom文件是做什么的?
Maven 是专门用于构建和管理Java相关项目的管理工具. 1.使用Maven管理的Java 项目都有着相同的项目结构 2.统一维护jar包 POM是项目对象模型(Project Object Mo ...