伪分布式hadoop1.1.2和hbase0.94.11配置
Hadoop 1.1.2 和Hbase 0.94.11版本配置
测试时ip 172.19.32.128
这个版本需要把/etc/hosts的aa-vm改成127.0.0.1,也就是和localhost一致。否则hbase会出现master在初始化(出现此问题还可能是时间不同步)
1.更新apt
Sudo apt-get update
Sudo apt-get install vim
2.安装ssh,设置无密码登陆
Sudo apt-get install openssh-server
Ssh localhost
Exit
Cd ~/.ssh/
Ssh-keygen –t rsa
Cat ./id_rsa.pub >> ./authorized_keys
再使用ssh localhost就不需要密码
3.安装java环境
Sudo apt-get install default-jre default-jdk
vim ~/.bashrc
在文件前面添加export JAVA_HOME=/usr/lib/jvm/default-java
Source ~./bashrc
echo $JAVA_HOME
java -version
$JAVA_HOME/bin/java -version
4.安装hadoop
Sudo tar –zxf ~/下载/hadoop-1.1.2.tar.gz –C /usr/local
Cd /usr/local
Sudo mv ./hadoop-1.1.2/ ./hadoop
Sudo chown –R hadoop ./hadoop
Cd /usr/local/hadoop
./bin/hadoop version
5.伪分布式配置
Cd /usr/local/hadoop/conf
Vim hadoop-env.sh
添加:export JAVA_HOME=/usr/lib/jvm/default-java
export PATH=$PATH:/usr/local/hadoop/bin
source hadoop-env.sh
hadoop version
vim core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>
</configuration>
Vim hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/usr/local/hadoop/hdfs/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/usr/local/hadoop/hdfs/data</value>
</property>
</configuration>
./bin/hadoop namenode –format
./bin/start-dfs.sh
Jps
6. 创建hdfs用户目录
Cd /usr/local/hadoop
./bin/hadoop fs –mkdir –p /user/hadoop
./bin/hadoop fs –ls. (这个.是hdfs用户当前目录,等价于./bin/hadoop fs –ls /user/hadoop)
./bin/hdfs dfs –mkdir input
(在创建个input目录时,采用了相对路径形式,实际上,这个input目录创建成功以后,它在HDFS中的完整路径是“/user/hadoop/input”。
./bin/hdfs dfs –mkdir /input
是在HDFS的根目录下创建一个名称为input的目录
7. Hdfs文件操作
本地文件系统上传到hdfs
./bin/hdfs dfs -put /home/hadoop/myLocalFile.txt input
./bin/hdfs dfs –ls input 查看是否成功上传
./bin/hdfs dfs –cat input/myLocalFile.txt
Hdfs下载到本地文件系统
./bin/hdfs dfs -get input/myLocalFile.txt /home/hadoop/下载
Hdfs的一个目录拷贝到hdfs的另一个目录
./bin/hdfs dfs -cp input/myLocalFile.txt /input
8. Hbase安装
sudo tar -zxf ~/下载/hbase-0.94.11-security.tar.gz -C /usr/local
sudo mv /usr/local/hbase-1.1.2-security /usr/local/hbase
vim ~/.bashrc
export PATH=$PATH:/usr/local/hbase/bin
source ~/.bashrc
cd /usr/local
sudo chown -R hadoop ./hbase
/usr/local/hbase/bin/hbase version
12. Hbase伪分布式配置
Vim /usr/local/hbase/conf/hbase-env.sh
添加:export JAVA_HOME=/usr/lib/jvm/default-java
export HBASE_MANAGES_ZK=true
vim /usr/local/hbase/conf/hbase-site.xml
设置:
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://localhost:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>127.0.0.1</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
ssh localhost
cd /usr/local/hadoop
./bin/start-dfs.sh
Jps
cd /usr/local/hbase
bin/start-hbase.sh
jps
bin/hbase shell
exit
bin/stop-hbase.sh
13. 关闭hadoop:./sbin/stop-dfs.sh
14. 访问hbaseweb管理页面 http://172.19.32.128:60010/
访问hdfs web管理页面http://172.19.32.128:50070/
15. 解决Hbase Table already exists问题。
通过./hbase zkcli命令进入zookeeper client模式
输入ls /hbase/table命令看到zombie table
使用rmr /hbase/table/TABLE_NAME命令删除zombie table
重启Hbase
伪分布式hadoop1.1.2和hbase0.94.11配置的更多相关文章
- 谁说他们版本不兼容——hadoop1.2.1+hbase0.94.11+nutch2.2.1+el
		一.背景 最近由于项目和论文的需要,需要搭建一个垂直搜索的环境,查阅了很多资料,决定使用Apache的一套解决方案hadoop+hbase+nutch+es.这几样神器的作用就不多作介绍了,自行参考各 ... 
- hadoop1.2.1+hbase0.94.11+nutch2.2.1+elasticsearch0.90.5安装配置攻略
		一.背景 最近由于项目和论文的需要,需要搭建一个垂直搜索的环境,查阅了很多资料,决定使用Apache的一套解决方案hadoop+hbase+nutch+es.这几样神器的作用就不多作介绍了,自行参考各 ... 
- 使用ycsb对hbase0.94.11 benchmark
		Ycsb下载地址:https://github.com/brianfrankcooper/YCSB/releases 目前测试hbase0.94.11,因此下载ycsb-0.1.4.tar.gz 1. ... 
- Hadoop-1.1.2、HBase-0.94.7完全分布式集群结构
		爱的技术可以应用到实际生活生产,做艺术向往的东西不腻和音乐. 现将前期手里面的一个项目做一个大致的总结,与大家一起分享.交流.进步. 项目如今正在线上执行,项目名--基于Hadoop的数据分析综合管理 ... 
- 第三章:Hadoop简介及配置Hadoop-1.2.1,hbase-0.94.13集群
		前面给大家讲了怎么安装Hadoop,肯定会有人还是很迷茫,装完以后原来就是这个样子,但是怎么用,下面,先给大家讲下Hadoop简介:大致理解下就OK了 hadoop是一个平台,提供了庞大的存储和并行计 ... 
- [转]CentOS下安装伪分布式Hadoop-1.2.1
		From: http://blog.csdn.net/yinan9/article/details/16805275 环境:CentOS 5.10(虚拟机下) [root@localhost hado ... 
- hbase0.94.11版本和hbase1.4.9版本的benchamark区别
		1.起初使用ycsb对hbase进行benchmark,分别在100%写的情况下检测写性能:在100%读的情况下检测读的性能.实验数据如下: 2.新版本的habse写性能竟然不如老版本.!!!.于是我 ... 
- Hadoop1   Centos伪分布式部署
		前言: 毕业两年了,之前的工作一直没有接触过大数据的东西,对hadoop等比较陌生,所以最近开始学习了.对于我这样第一次学的人,过程还是充满了很多疑惑和不解的,不过我采取的策略是还是先让环 ... 
- 伪分布式hbase从0.94.11版本升级stable的1.4.9版本
		Hbase从0.94.11升级到stable的1.4.9版本: 升级思路: hadoop1.1.2 hbase 0.94.11 ↓ had ... 
随机推荐
- mybatis:三种参数传递(转载)
			转载自:https://www.2cto.com/database/201409/338155.html 第一种方案 DAO层的函数方法 Public User selectUser(String n ... 
- 51Nod--1384全排列
			1384 全排列 基准时间限制:1 秒 空间限制:131072 KB 分值: 0 难度:基础题 收藏 关注 给出一个字符串S(可能又重复的字符),按照字典序从小到大,输出S包括的字符组成的所有排列.例 ... 
- 响应式页面-@media介绍
			01 响应式页面-@media介绍, 我们为什么要写自适应的页面(响应式页面) 众所周知,电脑.平板.手机的屏幕是差距很大的,假如在电脑上写好了一个页面,在电脑上看起来不错,但是如果放到手机上的话 ... 
- 06 元祖 字典 集合set
			元组 定义: ti=() print(ti,type(ti)) 参数:for可以循环的对象(可迭代对象) t2=tuple(") # ('1', '2', '3') <class 't ... 
- Java希尔排序算法
			希尔排序就是对直接插入排序的一个优化.比如有这么一种情况:对一个无序数组进行从小到大的排序,但是数组的最后一个位置的数是最小的,我们要把它挪到第一个位置,其他位置的都要往后移动,要是这个数组非常大,那 ... 
- Confluence 6 自定义 Decorator 模板的宏和针对高级用户
			宏 页面的某些部分使用的是 Velocity 宏进行创建的,包括导航栏.有关宏的创建,你可以参考页面 Working With Decorator Macros 页面中的内容. 针对高级用户 vel ... 
- npx简介(转载)
			npm v5.2.0引入的一条命令(npx),引入这个命令的目的是为了提升开发者使用包内提供的命令行工具的体验. 举例:使用create-react-app创建一个react项目. 老方法: npm ... 
- Linux用户、用户组、文件权限学习笔记
			最近打算更仔细学习一下linux操作系统.先是恶补了一下用户.用户组.文件权限这三样比较重要的知识.学习这几样东西,得先掌握linux的权限系统相关知识.linux的权限系统主要是由用户.用户组和权限 ... 
- 使用pm2离线部署nodejs项目
			1.下载https://npm.taobao.org/mirrors/node/v8.11.1/node-v8.11.1-linux-x64.tar.xz 比如安装到/opt目录 xz -d node ... 
- new/new[]和delete/delete[]是如何分配空间以及释放空间的
			C++中程序存储空间除栈空间和静态区外,每个程序还拥有一个内存池,这部分内存被称为或堆(heap).程序可以用堆来存储动态分配的对象,即那些在程序运行时创建的对象.动态对象的生存期由程序来控制 ,当动 ... 
