1 异常信息 Received error when attempting to archive files ([class org.apache.hadoop.hbase.backup.HFileArchiver$FileablePath, file:hdfs://hdp:9000/hbase/.tmp/data/WMBIGDATA/LAT_LNG_INDEX/310c60128e85a5a2d1ee3b9fc3e085db/0, class org.apache.hadoop.hbase.b…
HDFS文件权限 1.与linux文件权限类型 r:read w:write x:execute权限x对于文件忽略,对于文件夹表示是否允许访问其内容 2.如果linux系统用户sanglp使用hadoop命令创建一个文件,那么这个文件在HDFS中owner就是sanglp 3.HDFS的权限目的:阻止好人做错事,而不是阻止坏人做坏事. 安全模式 1. namenode启动的时候,首先将映像文件(fsimage)载入内存,并执行编辑日志(edits)中的各项操作. 2. 一旦在内存中成功建立文件系…
转自:http://www.jb51.net/article/77458.htm linux中目录与文件权限的意义 一.文件权限的意义 r:可以读这个文件的具体内容: w:可以编辑这个文件的内容,包括增加删除文件的具体内容: x:文件就具有了可执行的权限-------注意:这里和window不一样,在win中,文件的可执行权限是通过扩展名表现出来的,如exe.bat等,但是在linux中文件的可执行权限是通过这个x决定的,与文件名没有什么关系. 二.目录权限的意义 r:可以查看此目录下的完整文件…
1.情况描述如题所示,hbase启动以后,HMaster进程启动了,几秒钟以后自动关闭,但是HRegionServer进程正常运行: 原因是,hdfs的默认端口号是8020,而我core-site.xml中将hdfs的端口修改为了9000. <property> <name>fs.defaultFS</name> <value>hdfs://hadoop1:9000/</value> </property> 但是在我们并没有指定hdf…
本文原创,转载注明作者和原文链接! 一:总结注意点: 到现在为止学习到的角色:三个NameNode.SecondaryNameNode.DataNode 1.存储的是每一个文件分割存储之后的元数据信息.具体的信息有: 2.而且NameNode的存储是内存存储的,不会有和磁盘的数据交换的过程,这样的话提高了整体的集群的效率,但是这个数据都是需要持久化的,因为不持久化的话,数据是不安全的,加假如哪一天hadoop集群中的NameNode那台服务器挂了的话,里面的元数据如果只是存储在内存中的就全部的丢…
###linux 文件权限目录配置笔记 ---------- 多人多任务环境 linux 一般将文件可存取的身份分为三个类别:owner group others Permission deny ls -al dr-xr-x---. 2 root(拥有者) root(所属群组) 135(文件大小bytes) Jun 9 23:29(最后修改日期) .(代表隐藏文件) dr-xr-x--- 代表文件类型(第一个字符)和权限 [d] 文件类型有: d 目录 - 文件 l 链接 b 可供存储的接口设备…
HMaster没起来很多原因,这次看日志是这个.详细请看:http://www.bkjia.com/yjs/982064.html Hbase:namespace异常处理,hbase异常处理 Hbase 集群部署启动后几秒自动退出异常处理, 1.hadoop 与 hbase 版本不兼容,会导致此异常. 2.log 为 org.apache.hadoop.hbase.TableExistsException: hbase:namespace 异常, 很可能是更换了Hbase的版本过后zookeep…
一.目录与路径 1.相对路径与绝对路径绝对路径:/开头, cd /usr相对路径:cd ../..2.目录操作(cd:change directory).:当前目录..:上一层目录-:上一个目录~:当前用户所在的家目录,~用户名:用户名的家目录 如:[yuanyuan@localhost Desktop]$ cd ~yuanyuan[yuanyuan@localhost ~]$ pwd/home/yuanyuanpwd(print working directory):打印路径,pwd -P 显…
详细问题   我这里是,我的这个slave1的HRegionServer 进程启动后,不久自动消失.           去查看日志,排查问题: 发现问题: 解决办法 [hadoop@master hbase]$ su root Password: [root@master hbase]# ntpdate pool.ntp.org [hadoop@slave1 hbase]$ su root Password: [root@slave1 hbase]# ntpdate pool.ntp.org…
在日志(身为小白白的我,一开始日志在哪我都不知道!路径:/usr/local/hadoop/app/hbase-0.98.8/logs/hbase-hadoop-master-Master.log(也就是安装hbase下的logs文件夹中))中寻找到错误的原因,如下图: 产生错误的原因:zookeeper 链接信息过期了 解决办法:进入zookeeper 删除hbase (rmr /hbase )重启zookeeper即可 具体步骤: 1.停止hbase(./stop-hbase.sh) 2.运…