hbase.rootdir:这个目录是region  server的共享目录,用来持久化Hbase。URL需要是'完全正确'的,还要包含文件系统的scheme。例如,要表示hdfs中的 '/hbase'目录,namenode  运行在namenode.example.org的9090端口。则需要设置为hdfs://namenode.example.org:9000 /hbase。默认情况下Hbase是写到/tmp的。不改这个配置,数据会在重启的时候丢失。默认: file:///tmp/hbase-${user.name}/hbase

hbase.master.port:Hbase的Master的端口.默认: 60000

hbase.cluster.distributed:Hbase的运行模式。false是单机模式,true是分布式模式。若为false,Hbase和Zookeeper会运行在同一个JVM里面。默认: false

hbase.tmp.dir:本地文件系统的临时文件夹。可以修改到一个更为持久的目录上。(/tmp会在重启时清楚)    默认: /tmp/hbase-${user.name}

hbase.master.info.port:HBase Master web 界面端口.     设置为-1 意味着你不想让他运行。默认: 60010

hbase.master.info.bindAddress:HBase Master web 界面绑定的端口   默认: 0.0.0.0

hbase.client.write.buffer:HTable 客户端的写缓冲的默认大小。这个值越大,需要消耗的内存越大。因为缓冲在客户端和服务端都有实例,所以需要消耗客户端和服务端两个地方的内存。得到的好处 是,可以减少RPC的次数。可以这样估算服务器端被占用的内存: hbase.client.write.buffer *  hbase.regionserver.handler.count     默认: 2097152

hbase.regionserver.port:HBase RegionServer绑定的端口     默认: 60020

hbase.regionserver.info.port:HBase RegionServer web 界面绑定的端口     设置为 -1 意味这你不想与运行 RegionServer 界面.    默认: 60030

hbase.regionserver.info.port.auto:Master或RegionServer是否要动态搜一个可以用的端口来绑定界面。当hbase.regionserver.info.port已经被占用的时候,可以搜一个空闲的端口绑定。这个功能在测试的时候很有用。默认关闭。     默认: false

hbase.regionserver.info.bindAddress:HBase RegionServer web 界面的IP地址     默认: 0.0.0.0

hbase.regionserver.class:RegionServer 使用的接口。客户端打开代理来连接region server的时候会使用到。     默认: org.apache.hadoop.hbase.ipc.HRegionInterface

hbase.client.pause:通常的客户端暂停时间。最多的用法是客户端在重试前的等待时间。比如失败的get操作和region查询操作等都很可能用到。默认: 1000

hbase.client.retries.number:最大重试次数。例如 region查询,Get操作,Update操作等等都可能发生错误,需要重试。这是最大重试错误的值。   默认: 10

hbase.client.scanner.caching:当 调用Scanner的next方法,而值又不在缓存里的时候,从服务端一次获取的行数。越大的值意味着Scanner会快一些,但是会占用更多的内存。当 缓冲被占满的时候,next方法调用会越来越慢。慢到一定程度,可能会导致超时。例如超过了 hbase.regionserver.lease.period。    默认: 1

hbase.client.keyvalue.maxsize:一 个KeyValue实例的最大size.这个是用来设置存储文件中的单个entry的大小上界。因为一个KeyValue是不能分割的,所以可以避免因为 数据过大导致region不可分割。明智的做法是把它设为可以被最大region  size整除的数。如果设置为0或者更小,就会禁用这个检查。默认10MB。     默认: 10485760

hbase.regionserver.lease.period:客户端租用HRegion server 期限,即超时阀值。单位是毫秒。默认情况下,客户端必须在这个时间内发一条信息,否则视为死掉。默认: 60000

hbase.regionserver.handler.count:RegionServers受理的RPC Server实例数量。对于Master来说,这个属性是Master受理的handler数量     默认: 10

hbase.regionserver.msginterval:RegionServer 发消息给 Master 时间间隔,单位是毫秒     默认: 3000

hbase.regionserver.optionallogflushinterval:将Hlog同步到HDFS的间隔。如果Hlog没有积累到一定的数量,到了时间,也会触发同步。默认是1秒,单位毫秒。    默认: 1000

hbase.regionserver.regionSplitLimit:region的数量到了这个值后就不会在分裂了。这不是一个region数量的硬性限制。但是起到了一定指导性的作用,到了这个值就该停止分裂了。默认是MAX_INT.就是说不阻止分裂。默认: 2147483647

hbase.regionserver.logroll.period:提交commit log的间隔,不管有没有写足够的值。默认: 3600000

hbase.regionserver.hlog.reader.impl:HLog file reader 的实现.默认: org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogReader

hbase.regionserver.hlog.writer.impl:HLog file writer 的实现.默认: org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogWriter

hbase.regionserver.thread.splitcompactcheckfrequency:region server 多久执行一次split/compaction 检查.     默认: 20000

hbase.regionserver.nbreservationblocks:储备的内存block的数量(译者注:就像石油储备一样)。当发生out of memory 异常的时候,我们可以用这些内存在RegionServer停止之前做清理操作。

默认: 4

hbase.zookeeper.dns.interface:当使用DNS的时候,Zookeeper用来上报的IP地址的网络接口名字。    默认: default

hbase.zookeeper.dns.nameserver:当使用DNS的时候,Zookeepr使用的DNS的域名或者IP 地址,Zookeeper用它来确定和master用来进行通讯的域名.    默认: default

hbase.regionserver.dns.interface:当使用DNS的时候,RegionServer用来上报的IP地址的网络接口名字。     默认: default

hbase.regionserver.dns.nameserver:当使用DNS的时候,RegionServer使用的DNS的域名或者IP 地址,RegionServer用它来确定和master用来进行通讯的域名.     默认: default

hbase.master.dns.interface:当使用DNS的时候,Master用来上报的IP地址的网络接口名字。    默认: default

hbase.master.dns.nameserver:当使用DNS的时候,RegionServer使用的DNS的域名或者IP 地址,Master用它来确定用来进行通讯的域名.     默认: default

hbase.balancer.period: Master执行region balancer的间隔。     默认: 300000

hbase.regions.slop:当任一regionserver有average + (average * slop)个region是会执行Rebalance     默认: 0

hbase.master.logcleaner.ttl:Hlog存在于.oldlogdir 文件夹的最长时间,     超过了就会被 Master 的线程清理掉.     默认: 600000

hbase.master.logcleaner.plugins:LogsCleaner 服务会执行的一组LogCleanerDelegat。值用逗号间隔的文本表示。这些WAL/HLog  cleaners会按顺序调用。可以把先调用的放在前面。你可以实现自己的LogCleanerDelegat,加到Classpath下,然后在这里写 下类的全称。一般都是加在默认值的前面。     默认: org.apache.hadoop.hbase.master.TimeToLiveLogCleaner

hbase.regionserver.global.memstore.upperLimit:单个region server的全部memtores的最大值。超过这个值,一个新的update操作会被挂起,强制执行flush操作。     默认: 0.4

hbase.regionserver.global.memstore.lowerLimit:当强制执行flush操作的时候,当低于这个值的时候,flush会停止。默认是堆大小的 35% .      如果这个值和 hbase.regionserver.global.memstore.upperLimit 相同就意味着当update操作因为内存限制被挂起时,会尽量少的执行flush(译者注:一旦执行flush,值就会比下限要低,不再执行)     默认: 0.35

hbase.server.thread.wakefrequency:service工作的sleep间隔,单位毫秒。 可以作为service线程的sleep间隔,比如log roller.     默认: 10000

hbase.hregion.memstore.flush.size:当memstore的大小超过这个值的时候,会flush到磁盘。这个值被一个线程每隔hbase.server.thread.wakefrequency检查一下。     默认: 67108864

hbase.hregion.preclose.flush.size:当一个region中的memstore的大小大于这个值的时候,我们又触发了close.会先运行“pre-flush”操作,清理这个需要关闭的 memstore,然后将这个region下线。当一个region下线了,我们无法再进行任何写操作。如果一个memstore很大的时候,flush 操作会消耗很多时间。"pre-flush"操作意味着在region下线之前,会先把memstore清空。这样在最终执行close操作的时 候,flush操作会很快。     默认: 5242880

hbase.hregion.memstore.block.multiplier:如果memstore有hbase.hregion.memstore.block.multiplier倍数的 hbase.hregion.flush.size的大小,就会阻塞update操作。这是为了预防在update高峰期会导致的失控。如果不设上 界,flush的时候会花很长的时间来合并或者分割,最坏的情况就是引发out of  memory异常。(译者注:内存操作的速度和磁盘不匹配,需要等一等。原文似乎有误)     默认: 2

hbase.hregion.memstore.mslab.enabled:体验特性:启用memStore分配本地缓冲区。这个特性是为了防止在大量写负载的时候堆的碎片过多。这可以减少GC操作的频率。(GC有可能会Stop the world)(译者注:实现的原理相当于预分配内存,而不是每一个值都要从堆里分配)     默认: false

hbase.hregion.max.filesize:最大HStoreFile大小。若某个Column families的HStoreFile增长达到这个值,这个Hegion会被切割成两个。       Default: 256M.     默认: 268435456

hbase.hstore.compactionThreshold:当一个HStore含有多于这个值的HStoreFiles(每一个memstore flush产生一个HStoreFile)的时候,会执行一个合并操作,把这HStoreFiles写成一个。这个值越大,需要合并的时间就越长。     默认: 3

hbase.hstore.blockingStoreFiles:当一个HStore含有多于这个值的HStoreFiles(每一个memstore flush产生一个HStoreFile)的时候,会执行一个合并操作,update会阻塞直到合并完成,直到超过了hbase.hstore.blockingWaitTime的值     默认: 7

hbase.hstore.blockingWaitTime:hbase.hstore.blockingStoreFiles所限制的StoreFile数量会导致update阻塞,这个时间是来限制阻塞时间的。当超过了这个时间,HRegion会停止阻塞update操作,不过合并还有没有完成。默认为90s.     默认: 90000

hbase.hstore.compaction.max:每个“小”合并的HStoreFiles最大数量。     默认: 10

hbase.hregion.majorcompaction:一个Region中的所有HStoreFile的major compactions的时间间隔。默认是1天。 设置为0就是禁用这个功能。     默认: 86400000

hbase.mapreduce.hfileoutputformat.blocksize:MapReduce 中HFileOutputFormat可以写 storefiles/hfiles. 这个值是hfile的blocksize的最小值。通常在Hbase写Hfile的时候,bloocksize是由table  schema(HColumnDescriptor)决定的,但是在mapreduce写的时候,我们无法获取schema中blocksize。这个值 越小,你的索引就越大,你随机访问需要获取的数据就越小。如果你的cell都很小,而且你需要更快的随机访问,可以把这个值调低。     默认: 65536

hfile.block.cache.size:分配给HFile/StoreFile的block cache占最大堆(-Xmx setting)的比例。默认是20%,设置为0就是不分配。       默认: 0.2

hbase.hash.type:哈希函数使用的哈希算法。可以选择两个值:: murmur (MurmurHash) 和 jenkins (JenkinsHash).     这个哈希是给 bloom filters用的.     默认: murmur

hbase.master.keytab.file:

HMaster server验证登录使用的kerberos keytab 文件路径。(译者注:Hbase使用Kerberos实现安全)

hbase.master.kerberos.principal:例 如. "hbase/_HOST@EXAMPLE.COM".  HMaster运行需要使 用 kerberos principal name.  principal name 可以在: user/hostname@DOMAIN 中获 取. 如果 "_HOST" 被用做hostname     portion,需要使用实际运行的hostname来替代它。

hbase.regionserver.keytab.file:HRegionServer验证登录使用的kerberos keytab 文件路径。

hbase.regionserver.kerberos.principal:例 如. "hbase/_HOST@EXAMPLE.COM".  HRegionServer运行需要使 用 kerberos principal name.  principal name 可以在: user/hostname@DOMAIN 中获 取. 如果 "_HOST" 被用做hostname     portion,需要使用实际运行的hostname来替代它。在这个文件中必须要有一个entry来描 述 hbase.regionserver.keytab.file

zookeeper.session.timeout:ZooKeeper   会话超时.Hbase把这个值传递改zk集群,向他推荐一个会话的最大超时时间。单位是毫秒     默认: 180000

zookeeper.znode.parent:ZooKeeper中的Hbase的根ZNode。所有的Hbase的ZooKeeper会用这个目录配置相对路径。默认情况下,所有的Hbase的ZooKeeper文件路径是用相对路径,所以他们会都去这个目录下面。     默认: /hbase

zookeeper.znode.rootserver:ZNode  保存的 根region的路径. 这个值是由Master来写,client和regionserver 来读的。如果设为一个相对地址,父目录就是  ${zookeeper.znode.parent}.默认情形下,意味着根region的路径存储在/hbase/root-region- server.     默认: root-region-server

hbase.zookeeper.quorum:Zookeeper 集群的地址列表,用逗号分割。例 如:"host1.mydomain.com,host2.mydomain.com,host3.mydomain.com".默认是 localhost,是给伪分布式用的。要修改才能在完全分布式的情况下使用。如果在hbase-env.sh设置了HBASE_MANAGES_ZK, 这些ZooKeeper节点就会和Hbase一起启动。         默认: localhost

hbase.zookeeper.peerport:ZooKeeper节点使用的端口。默认: 2888

hbase.zookeeper.leaderport:ZooKeeper用来选择Leader的端口. 默认: 3888

hbase.zookeeper.property.initLimit:ZooKeeper的zoo.conf中的配置。 初始化synchronization阶段的ticks数量限制     默认: 10

hbase.zookeeper.property.syncLimit:ZooKeeper的zoo.conf中的配置。 发送一个请求到获得承认之间的ticks的数量限制     默认: 5

hbase.zookeeper.property.dataDir:ZooKeeper的zoo.conf中的配置。     快照的存储位置     默认: ${hbase.tmp.dir}/zookeeper

hbase.zookeeper.property.clientPort:ZooKeeper的zoo.conf中的配置。 客户端连接的端口     默认: 2181

hbase.zookeeper.property.maxClientCnxns:ZooKeeper的zoo.conf中的配置。 ZooKeeper集群中的单个节点接受的单个Client(以IP区分)的请求的并发数。这个值可以调高一点,防止在单机和伪分布式模式中出问题。默认: 2000

hbase.rest.port:HBase REST server的端口      默认: 8080

hbase.rest.readonly:定义REST server的运行模式。可以设置成如下的值:     false: 所有的HTTP请求都是被允许的 - GET/PUT/POST/DELETE.     true:只有GET请求是被允许的     默认: false

1.在linux下面安装JDK1.6版本,注意:jdk是有版本区分的,32位必须装在32位系统上

下载jdk-6u27-linux-x64.bin

sudo chmod 777 jdk-6u27-linux-x64.bin  先赋予权限

sudo /bin/sh  jdk-6u27-linux-x64.bin     这样就安装好了

2.如果ssh配置不成功,先看下ssh -v localhost输出什么

在看下日志文件  cat  /var/log/auth.log   看看有什么错误

如果什么错误都没有报,打开/etc/ssh/sshd_config这个文件,找到etc/ssh/sshd_config下面的这2个认证,把NO换成yes

RSAAuthentication no

PubkeyAuthentication no  修改成

RSAAuthentication yes

PubkeyAuthentication yes

这个配置文件就是用来控制ssh服务的,要把这2个服务打开

3.如果想知道hadoop中hdfs存放哪些文件,就在hadoop下面输入

bin/hadoop fs -put ../input on    上传文件

bin/hadoop   fs   -ls   /    查看hdfs存放文件

bin/hadoop fs -ls /in     查看in文件下存放的目录

bin/hadoop fs -cat /in/*    查看文本里面的内容

bin/hadoop fs -get  in   ./xya   将hdfs文件复制到本地

bin/hadoop fs  -rmr in  删除hdfs下的文档

bin/hadoop  dfsadmin  -report    查看hdfs基本统计信息

进入和退出安全模式:

bin/hadoop dfsadmin  -safemode enter

bin/hadoop dfsadmin  -safemode leave

bin/start-balancer.sh  进行数据负载均衡

4.想要查看linux时间,输入:date

5.查询数据的总数量    ls|wc  -l

6.运行.sh文件,必须加./

.sh文件权限设置为755,要是运行不了,看看jdk  -version

.sh文件开头要加:#bin/sh

7.同步时间一致

su  root     这样子会有service的命令

yum install ntp:下载时间服务器

cp /usr/share/zoneinfo/Asia/ShangHai /etc/localtime  把时间复制到系统时间里去

service ntpd start:开启,这句话是在cenots系统的

date  -s:这个命令可以设置系统时间,例如:

date  -s  06/10/96  :比如将系统时间设定成1996年6月10日的命令

date  -s  13:12:00:将系统时间设定成下午1点12分0秒的命令

clock -w 或者hwclock -w:这个命令强制把系统时间写入CMOS

hwclock –systohc: 将系统时间写入硬件时间

第十章 hbase默认配置说明的更多相关文章

  1. hbase-default.xml(Hbase 默认参数翻译)

    hbase.tmp.dir \({java.io.tmpdir}/hbase-\){user.name} 本地文件系统上的临时目录.将'/tmp'改为其他可以持久保存文件的位置,通常能够解决java. ...

  2. HBase学习系列

    转自:http://www.aboutyun.com/thread-8391-1-1.html 问题导读: 1.hbase是什么? 2.hbase原理是什么? 3.hbase使用中会遇到什么问题? 4 ...

  3. 转载:HBASE配置说明

    HBase 默认配置  ,原文:http://eclecl1314-163-com.iteye.com/blog/1474286 该文档是用hbase默认配置文件生成的,文件源是 hbase-defa ...

  4. HBase应用开发回顾与总结系列之一:概述HBase设计规范

      概述 笔者本人接触研究HBase也有半年之久了,虽说不上深入和系统,但至少算是比较沉迷.作为部门里大数据技术的探路者,笔者还要承担起技术传播的职责,所以在摸索研究的过程中总是不断地进行总结和测试, ...

  5. HBase 1.2.6 完全分布式集群安装部署详细过程

    Apache HBase 是一个高可靠性.高性能.面向列.可伸缩的分布式存储系统,是NoSQL数据库,基于Google Bigtable思想的开源实现,可在廉价的PC Server上搭建大规模结构化存 ...

  6. Centos6.5下Hbase安装

    下载 http://mirror.bit.edu.cn/apache/hbase/hbase-0.94.26/hbase-0.94.26.tar.gz 2.  解压 tar -zxvf hbase-0 ...

  7. HBase数据库集群配置

    0,HBase简介 HBase是Apache Hadoop中的一个子项目,是一个HBase是一个开源的.分布式的.多版本的.面向列的.非关系(NoSQL)的.可伸缩性分布式数据存储模型,Hbase依托 ...

  8. Hbase的配置和安装

    Hbase的配置和安装 1. 解压hbase.配置HBASE_HOME tar -zxvf hbase-1.2.4.tar.gz 2. 修改$HBASE_HOME/conf/hbase-env.sh文 ...

  9. HBase配置性能调优(转)

    因官方Book Performance Tuning部分章节没有按配置项进行索引,不能达到快速查阅的效果.所以我以配置项驱动,重新整理了原文,并补充一些自己的理解,如有错误,欢迎指正. 配置优化 zo ...

随机推荐

  1. APUE学习笔记——11 线程同步、互斥锁、自旋锁、条件变量

    线程同步     同属于一个进程的不同线程是共享内存的,因而在执行过程中需要考虑数据的一致性.     假设:进程有一变量i=0,线程A执行i++,线程B执行i++,那么最终i的取值是多少呢?似乎一定 ...

  2. The Enginer sample Test for GD temperature control (FCT, ATE, NPI,SMT, )

    For me it is a day of grief.................... 1 Communication with customer test methods. notes: T ...

  3. 关于命名空间namespace

    虽然任意合法的PHP代码都可以包含在命名空间中,但只有以下类型的代码受命名空间的影响,它们是:类(包括抽象类和traits).接口.函数和常量. 在声明命名空间之前唯一合法的代码是用于定义源文件编码方 ...

  4. Linux网络编程IPv4和IPv6的inet_addr、inet_aton、inet_pton等函数小结

    知识背景: 210.25.132.181属于IP地址的ASCII表示法,也就是字符串形式.英语叫做IPv4 numbers-and-dots notation. 如果把210.25.132.181转换 ...

  5. 关于Gradle2.0的翻译说明

    Gradle1.12的翻译情况 Gradle实际上在4月16日就已经在对应的OmegaT项目上完成了翻译,后因项目繁忙,直到7月20日才完成了Github上Gradledoc项目及七牛站点的更新. 总 ...

  6. 如何查看PHP的配置信息

    1.问题描述 如何利用PHP函数查看PHP的配置信息 2.问题函数 <?php echo phpinfo(); ?> 3.输出结果 phpinfo() PHP Version => ...

  7. Unity喷墨效果Shader实现

    笔者介绍:姜雪伟,IT公司技术合伙人,IT高级讲师,CSDN社区专家,特邀编辑,畅销书作者,已出版书籍:<手把手教你架构3D游戏引擎>电子工业出版社和<Unity3D实战核心技术详解 ...

  8. opencv 图像增强

    Mat src= imread( "D:\\OCR\\Debug\\Temp\\Rects\\wholeMat_00191_0_0.jpg"); Mat dest; Mat ker ...

  9. learn go anonymous function

    package main // 参考文档: // https://github.com/Unknwon/the-way-to-go_ZH_CN/blob/master/eBook/06.8.md im ...

  10. 折腾 Phalcon 的笔记

    不要用 IIS!Apache 万岁! 不要用 Web Platform Installer!自己动手丰衣足食! 注意版本号.TS 与 NonTS.x86 与 x64 的区别! 关于 Apache 的配 ...