一、设置Linux的静态IP

修改桌面图标修改,或者修改配置文件修改

1、先执行ifconfig,得到网络设备的名称eth0

2、编辑/etc/sysconfig/network-scripts/ifcfg-eth0文件

设置静态ip、dns、ip地址、子网掩码、网关等信息

3、重启网卡:service
network restart

最后执行ifconfig命令查看是否修改成功

该步骤需保证虚拟机中的Linux能与客户机在同一网段并且ping通

二、修改主机名

修改当前会话主机名(当前会话生效):hostname
主机名

修改配置文件主机名(永久生效):vi
/etc/sysconfig/network

重启机器查看是否修改成功:

其中hadoop为主机名

 

三、把hostname和ip绑定

修改hosts文件:vi
/etc/hosts文件,增加一行

192.168.1.214     hadoop

验证:ping hadoop

四、关闭防火墙:service
iptables stop

1、   查看防火墙状态:service iptables status

2、   关闭防火墙:service iptables stop

3、   关闭防火墙的自运行:

a)    查看自运行状态:chkconfig --list |
grep 'iptables'

[root@hadoop
sysconfig]# chkconfig --list | grep 'iptables'

iptables        0:关闭  1:关闭  2:启用  3:启用  4:启用  5:启用  6:关闭

b)    关闭:chkconfig iptables off

[root@hadoop
sysconfig]# chkconfig iptables off

c)    再次查看自运行状态:chkconfig --list |
grep 'iptables'

[root@
hadoop sysconfig]# chkconfig --list | grep 'iptables'

iptables        0:关闭  1:关闭  2:关闭  3:关闭  4:关闭  5:关闭  6:关

这样下次开机的时候就会不开启防火墙了

五、ssh免密码登陆

1、生成秘钥文件

进入~/.ssh文件夹

注意:

1.如果没有.ssh文件夹,就使用ssh协议登录一次试试

2.如果还是没有.ssh文件夹,就自己创建一个。修改文件夹权限为700

cd  ~

cd  .ssh

生成秘钥:ssh-keygen
-t rsa

查看.ssh文件夹中已经多出了两个文件id_rsa和 id_rsa.pub

[root@hadoop .ssh]# ls

id_rsa 
id_rsa.pub

2、查看秘钥文件是否生成成功

查看id_rsa.pub中的秘钥文件,反正我是看不懂

3、将id_rsa.pub文件内容放入到authorized_keys中

[root@hadoop .ssh]# cp id_rsa.pub
authorized_keys

[root@hadoop .ssh]# ls

authorized_keys  id_rsa  id_rsa.pub

为什么要复制出一份authorized_keys文件?

答:因为SSH在运行的时候会读取authorized_keys文件

 

4、验证是否免密码登陆:ssh localhost

使用localhost,不输密码登陆:ssh localhost

[root@hadoop .ssh]# ssh localhost

The authenticity of host 'localhost (127.0.0.1)'
can't be established.

RSA key fingerprint is
8c:f4:bf:b5:c4:95:30:7b:1c:d7:cc:f8:69:15:e1:ab.

Are you sure you want to continue connecting
(yes/no)? yes

Warning: Permanently added 'localhost' (RSA) to
the list of known hosts.

Last login: Sun Apr  5 17:45:25 2015

验证:退出登陆

[root@hadoop ~]#exit

[root@hadoop ~]#exit

再次输入exit的时候将会退出终端

六、安装JDK

1、授予执行权限:

chmod u+x jdk-6u24-linux-i586.bin

2、解压缩:./jdk-6u24-linux-i586.bin

[root@hadoop local]# ./jdk-6u24-linux-i586.bin

3、回车,查看jdk1.6.0.24文件夹

4、将jdk1.6.0_24重命名为jdk:mv jdk1.6.0_24/ jdk

5、配置环境变量:

编辑/etc/profile文件,增加如下代码

export JAVA_HOME=/usr/local/jdk

export PATH=.:$JAVA_HOME/bin:$PATH

6、使设置立即生效:

source /etc/profile,再输入java –version时已经可以看到java版本了

七、伪分布安装hadoop

1、解压缩hadoop-1.1.2.tar.gz

tar –zxvf hadoop-1.1.2.tar.gz

为了方便重命名为hadoop:mv
hadoop-1.1.2 hadoop

2、添加到环境变量中

编辑/etc/profile文件,增加红色字体文件

export JAVA_HOME=/usr/local/jdk

export HADOOP_HOME=/usr/local/hadoop

export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

3、使设置立即生效:

source /etc/profile

4、修改hadoop的配置文件

$HADOOP_HOME/conf目录下的配置文件

修改以下4个配置文件

hadoop-env.sh

core-site.xml

hdfs-site.xml

mapred-site.xml

修改内容如下:

1.hadoop-env.sh修改内容如下:

export JAVA_HOME=/usr/local/jdk/

2.core-site.xml修改内容如下:

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://hadoop:9000</value>

<description>change your own hostname</description>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/local/hadoop/tmp</value>

</property>

</configuration>

3.hdfs-site.xml修改内容如下:

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

</configuration>

4.mapred-site.xml修改内容如下:

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>hadoop0:9001</value>

<description>change your own hostname</description>

</property>

</configuration>

4.1修改hadoop-env.sh(第9行)

# export JAVA_HOME=/usr/lib/j2sdk1.5-sun

取消#号注释

注意:jdk的安装路径

4.2修改core-site.xml

注意:主机名称(这里是hadoop)

源文件内容

将需要修改的configuration中内容复制进去

4.3   修改hdfs-site.xml

源文件内容

复制修改

4.4修改mapred-site.xml

源内容

同样复制内容。注意修改主机名

注意:主机名称(这里是hadoop)

5、对hadoop进行格式化

命令:hadoop namenode -format

如果格式化过程中出现错误,则删除hadoop/tmp文件夹。重新格式化即可

6、启动hadoop

命令:start-all.sh

停止hadoop:stop-all.sh

共启动5个java进程

7、验证是否启动hadoop:

7.1通过jps验证是否共5个java进程

(jps命令在windows中也有)

7.2 通过浏览器端口验证

注意:如果想在windows下访问。需要修改windows/system32/dirves/etc/host文件

增加如下映射

192.168.1.214  hadoop

浏览器地址输入: http://hadoop:50070/

或者: http://hadoop:50030/

出现如下界面说明hadoop的NameNode正在运行,启动成功。

输入:http://hadoop:50030/

出现如下界面,说明Hadoop的Map/Reduce正在运行,启动成功。

8、消除start-all.sh时候的警告信息

出现上面警告信息的原因为:hadoop-config.sh文件中的如下代码

主要是:$HADOOP_HOME_WARN_SUPPRESS变量内容为空

解决办法是设置该变量不为空即可!

修改/etc/profile文件,增加如下代码

export 
HADOOP_HOME_WARN_SUPPRESS=1

然后使设置生效:source /etc/profile

Hadoop1.1.2伪分布式安装笔记的更多相关文章

  1. Hadoop1.1.2伪分布式安装

    一.安装前准备设置Linux的静态IP修改VirtualBox的虚拟网卡地址修改主机名把hostname和ip绑定关闭防火墙:service iptables stop二.SSH免密码登陆生成秘钥文件 ...

  2. Hadoop1.2.1 伪分布式安装

    Hadoop1.2.1 单机模式安装 Hadoop组件依赖图(从下往上看) 安装步骤: 详细步骤: 设置ssh自动登录(如下图): 1.输入命令 [ssh-keygen -t rsa],然后一直按回车 ...

  3. Hadoop1.0.4伪分布式安装

    前言: 目前,学习hadoop的目的是想配合其它两个开源软件Hbase(一种NoSQL数据库)和Nutch(开源版的搜索引擎)来搭建一个知识问答系统,Nutch从指定网站爬取数据存储在Hbase数据库 ...

  4. redhat 安装hadoop1.2.1伪分布式

    完整安装过程参考:http://www.cnblogs.com/shishanyuan/p/4147580.html 一.环境准备    1.安装linux.jdk      2.下载hadoop2. ...

  5. Hadoop单机和伪分布式安装

    本教程为单机版+伪分布式的Hadoop,安装过程写的有些简单,只作为笔记方便自己研究Hadoop用. 环境 操作系统 Centos 6.5_64bit   本机名称 hadoop001   本机IP ...

  6. hadoop伪分布式安装之Linux环境准备

    Hadoop伪分布式安装之Linux环境准备 一.软件版本 VMare Workstation Pro 14 CentOS 7 32/64位 二.实现Linux服务器联网功能 网络适配器双击选择VMn ...

  7. Hadoop开发第3期---Hadoop的伪分布式安装

    一.准备工作 1. 远程连接工具的安装 PieTTY 是在PuTTY 基础上开发的,改进了Putty 的用户界面,提供了多语种支持.Putty 作为远程连接linux 的工具,支持SSH 和telne ...

  8. 第二章 伪分布式安装hadoop hbase

    安装单机模式的hadoop无须配置,在这种方式下,hadoop被认为是一个单独的java进程,这种方式经常用来调试.所以我们讲下伪分布式安装hadoop. 我们继续上一章继续讲解,安装完先试试SSH装 ...

  9. HBase基础和伪分布式安装配置

    一.HBase(NoSQL)的数据模型 1.1 表(table),是存储管理数据的. 1.2 行键(row key),类似于MySQL中的主键,行键是HBase表天然自带的,创建表时不需要指定 1.3 ...

随机推荐

  1. jmeter 302请求测试

    需求,测试url:  http://test.123.com/123.action,请求该url之后会进行302跳转,判断跳转的页面是不是http://www.haha.com. 这个其实本质还是普通 ...

  2. Spark基础与Java Api介绍

    原创文章,转载请注明: 转载自http://www.cnblogs.com/tovin/p/3832405.html  一.Spark简介 1.什么是Spark 发源于AMPLab实验室的分布式内存计 ...

  3. malloc/free 和 new/delete 的区别

    1.malloc在C和C++中的区别 1.1.C中可以将任意的指针赋值给void*类型的变量.也可以将void*类型的值赋值给通常的指针变量. ---------------------------- ...

  4. TCP与UDP的不同接包处理方式

    TCP与UDP的不同接包处理方式 1.UDP发包的问题问:udp 发送两次数据,第一次 100字节 ,第二次200字节, 接包方一次recvfrom( 1000 ), 收到是 100,还是200,还是 ...

  5. Mysql笔记——DML

    数据操纵语言DML(Data Manipulation Language),用户通过它可以实现对数据库的基本操作. ========================== 1 插入数据 语法:INSER ...

  6. iOS:核心动画之转场动画CATransition

    转场动画——CATransition CATransition是CAAnimation的子类,用于做转场动画,能够为层提供移出屏幕和移入屏幕的动画效果.iOS比Mac OS X的转场动画效果少一点 U ...

  7. PostgreSQL删除表

    PostgreSQL的DROP TABLE语句是用来删除表定义及其所有相关的数据表的索引,规则,触发器和约束. 必须使用此命令时要小心,因为一旦一个表被删除表中提供的所有信息也将被永远失去了. 语法: ...

  8. 虚拟机 主机无法访问虚拟机中Linux上的tomcat服务

    在wmware中安装linux后安装好数据库,JDK及tomcat后启动服务,虚拟机中可以访问,但是主机却无法访问,但是同时主机和虚拟机之间可以ping的通,网上查阅资料后,解决方法是关闭虚拟机中的防 ...

  9. windows服务删除后,在次安装时无法安装启动。

    当我在windows的cmd下卸载evtsys evtsys -u  再次安装时evtsys.exe -i -h 192.168.32.12 -p 514 提示“指定的服务已标记为删除”,进入服务管理 ...

  10. 使用Myeclipse完成Hibernate的逆向工程

    前面已经提到过Hibernate的开发流程一般有两种: 1.由Domain object > mapping > db 2.由db开始,用工具生成生成mapping 和Domain obj ...