部署hbase的集群
首先我们要需要一个hadoop集群、至少要有一个hdfs的集群和zookeeper集群
用HA集群的可用性号,由于做实验,没必要这么多集群,那么就不用HA集群
第一步看一下hdfs是否正常
启动hdfs
start-dfs.sh
启动zookeeper看是否正常(每台机器上都手动启动zookeeper)
./zkServer.sh start
检查zookeeper的工作状态
./zkServer.sh status
我们可以输入
hdfs dfsadmin -report 来查看集群的工作信息
前期工作准备好了,接下来就是搭建hbase
首先上传hbase的安装包(注意:这里hbase的安装包必须要和之前安装的hadoop的安装包匹配要支持你所安装的hadoop)
我安装的hadoop是2系类的所有下载hbase时也要下载支持2系类的
上传到主机上目录上
解压 tar -zxvf hbase文件名 -C app/
在运行的机器上docs文档可以删除来节省空间
rm -rf docs/
我们要到conf里面去修改配置文件
cd conf/
修改3个配置文件 hbase-env.sh hbase-site.xml regionservers
首先我们修改hbase-env.sh
vi hbase-env.sh
修改export JAVA_HOME=/usr/local/apps/jdk1.8.0_121修改成你安装的jdk的安装目录
在另外一台机器上执行echo $JAVA_HOME 找到jdk的安装目录。
接下来我们找一下export HBASE_MANAGES_ZK=true(在键盘上按ESC:/ZK 就可以自动找到)
export HBASE_MANAGES_ZK=true(告诉hbase他内部要不要管理zookeeper的管理实例hbase内部自己自带的zookeeper 因为hadoop组件里面各种各种的组件都需要zookeeper,在这里我们要把export HBASE_MANAGES_ZK=false,不要让hbase管理自己的zookeeper,如果hbase停掉了,他不会去把我们的zookeeper去关掉)
接下来修改hbase-site.xml(最主要的配置文件)
vi hbase-site.xml
<configuration>
<!--指定hbase在HDFS上的存储的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://hadoop-server-00:9000/hbase</value>
</property>
<!--指定hbase是分布式的-->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!--指定zkd 地址,多个用“,”分割-->
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop-server-00:2181,hadoop-server-01:2181,hadoop-server-02:2181</value>
</property>
</configuration>
接下来修改regionservers
vi regionservers
修改为:
hadoop-server-00
hadoop-server-01
hadoop-server-02
保存退出
**注意:我们要把hadoop中的hdfs-site.xml 和 core-site.xml 配置文件放到hbase/conf下
pwd
/usr/local/apps/hbase-0.98.24-hadoop2/conf
cp /usr/local/apps/hadoop-2.6.5/etc/hadoop/hdfs-site.xml ./
cp /usr/local/apps/hadoop-2.6.5/etc/hadoop/core-site.xml ./**
接下来我们要把在00上配置的hbase信息拷贝到01 02机器上
[root@hadoop-server-00 apps]# scp -r hbase-0.98.24-hadoop2/ hadoop-server-01:/usr/local/apps/
[root@hadoop-server-00 apps]# scp -r hbase-0.98.24-hadoop2/ hadoop-server-02:/usr/local/apps/
启动hbase前必须保证hdfs的集群和zookeeper集群正常工作
启动hbase,首先看一下bin目录里面有上面脚本
cd bin/
在bin目录下启动hbase
./start-hbase.sh(在那台机器上启动,你就在那台机器上出现Hmaster 其他的集群机器出现QuorumPeerMain)
我们要在集群中实现高可用性(HA)就要再启动一个Hmaster,那么随便在那台机器上都可以,只要你安装了hbase的安装包
随便在那台机器上却换到bin目录下看到hbase-daemon.sh
./hbase-daemon.sh statrt master(这样就会有两台Hmaster)
hbase命令行客户端简单使用
在hbase的安装包bin目录下有一个hbase
./hbase shell
启动一个shell这样的交互的客户端
进入了数据库操作界面hbase(main):001:0> 可以再这后面进行hbase的命令操作
里面不可以用mysql的语句命令,他是不认识的,他有自己的一套语法,
第一次进入这个里面,你输入的东西是不可以往回删除的,我们需要在session Option做一个设置
点击Emulation 选择linux 在Mapped Keys 把Backspace sends delete前面的沟 沟上
可以用help查看命令
Group name: ddl 数据定义语言
Group name: dml 数据操作语言
Group name: namespace 名称空间(也就是mysql中的库的概念)
Group name: tools 运维的工具
Group name: replication 做副本备份的工具
Group name: snapshots 快照的工具
Group name: security 做安全验证的工具命令
status 查看状态
version 查看数据库的版本号
whoami 查看是哪个用户操作的此数据库
list 查看哪些表
查找一个字段值的坐标
表名---->rowkey---->列族名---->列----->版本号(版本号可以不指定,他默认返还给一个最新的值)
hbase表中,只支持一种数据类型:byte[]
hbase命令行客户端创建表和插入数据以及表的排序特性
hbase> create 't1', {NAME => 'f1',VERSIONS => 1}, {NAME => 'f2'}, {NAME => 'f3'}
't1'表示:表名 {NAME => 'f1'}, {NAME => 'f2'}, {NAME => 'f3'}表示:列族名
VERSIONS 表示:f1这个列族里面最多可以保存几个版本
现在我们来创建一个表
create 'user_info', {NAME => 'base_info',VERSIONS => 3},{NAME => 'extra_info'}
创建好后可以用list来看,就有这张表的存在了(其实在网页上也可以看到)
用put命令在插入数据
直接按put看系统提供的例子hbase> put 't1', 'r1', 'c1', 'value', ts1
't1' 表示:表名 'r1' 表示:行键 'c1' 表示:列名(列名属于列族 列族和列名一起写)
'value' 表示:你所插入列名的值 ts1 表示:事件搓(一般不需要手动去定义)
比如
put 'user_info','rk0001','base_info:id','1'
put 'user_info','rk0001','base_info:name','zhangsan'
put 'user_info','rk0001','base_info:age','20'
put 'user_info','rk0001','extra_info:address','beijing'
(在第一行中插入了四个字段和值:分别是base_info中的id name age 和extra_info中的address)
put 'user_info','rk0002','base_info:id','2'
put 'user_info','rk0002','base_info:name','lisi'
put 'user_info','rk0002','base_info:sex','male'
(插入了两行数据)
接下来我们来查询一下
在dml中的get来查询数据针对一行 scan对整个表的扫描
scan 'user_info'(查看的整个表)
scan也可以指定起始的范围,不需要对整个表进行扫描 表很大的时候
scan 't1', {COLUMNS => ['c1', 'c2'], LIMIT => 10, STARTROW => 'xyz'}
't1' 表示:表名 COLUMNS => ['c1', 'c2'] 表示:要返还哪些列 STARTROW => 'xyz' 表示:范围起始的行 LIMIT => 10要查询多少行
比如:
scan 'user_info', {LIMIT => 2, STARTROW => 'rk0001'}
hbase(main):030:0> scan 'mjh_shiyanshuju:mjh_hbase', {COLUMNS => ['b', 'ct'], LIMIT => 1, STARTROW => '001'}
ROW COLUMN+CELL
001 column=b:balance, timestamp=1521192923285, value=10000.00
001 column=ct:email, timestamp=1521192923285, value=zhangsan@email.com
001 column=ct:tep, timestamp=1521192923285, value=123456789
1 row(s) in 0.0600 seconds
hbase怎么查询表里的总纪录数呢?
hbase(main):010:0> count 'vargo:vargo_hbase'
3 row(s) in 0.0300 seconds
=> 3
他的排列的顺序是不一定是我们插入时的顺序,他的内部会给我们自动排序,排序后会给我们存放进去,他不是按照我们插入的先后顺序排序而是按照字段的名字来排序(他是按照字母的排序大小来排序的a~z)
(hbase的表中,列族和kv都会自动排序,排序的规律是按照列族名和列名的字典顺序,行也会排序,根据行健的字典顺序)
比如是按照以下顺序排列
rk0001
rk0001
rk0001
rk0001
rk00010
rk00010
rk00010
rk0002
rk0002
rk0002
用get命令在查询数据
get 't1', 'r1', {COLUMN => 'c1', TIMERANGE => [ts1, ts2], VERSIONS => 4}
COLUMNS => 'c1' 表示:要返还哪些列 VERSIONS => 4 表示:返还的版本号 TIMERANGE => [ts1, ts2]:时间搓
比如:
get 'user_info' ,'rk0001'
get 'user_info' ,'rk0001',{COLUMN => 'base_info:name',VERSIONS => 3}
hbase命令行客户端管理名称空间
Group name: namespace 名称空间(也就是mysql中的库的概念)
我们可以在不同的名称空间里创建不同的表
create_namespace 'orderdb'
create 'orderdb:t_order','f1','f2'
查看名称空间
list_namespace
删除名称空间
disable 'orderdb:t_order'(禁用'orderdb:t_order'中的表)
drop 'orderdb:t_order' (删除'orderdb:t_order'中的表)
drop_namespace 'orderdb'(删除'orderdb'名称空间)
hbase(main):015:0> count 'vg_device'
Current count: 1000, row: 948069935274401803
1586 row(s) in 0.3650 seconds
=> 1586
hbase(main):016:0> truncate 'vg_device' (情况表语句)
Truncating 'vg_device' table (it may take a while):
- Disabling table...
- Truncating table...
0 row(s) in 3.3790 seconds
hbase(main):017:0> count 'vg_device'
0 row(s) in 0.2500 seconds
=> 0
lsdf命令重写出现界面hbase(main)>图标
Hbase 建表基本命令总结:https://blog.csdn.net/kky2010_110/article/details/12616137
HBase scan shell操作详解:https://blog.csdn.net/vaq37942/article/details/54949428
**Hbase在HDFS上的各个目录作用** https://blog.csdn.net/jsjsjs1789/article/details/52739356
1、/hbase/.META.
就是存储1中介绍的 META 表的存储路径。
2、/hbase/.archive
HBase 在做 Split或者 compact 操作完成之后,会将 HFile 移到.archive 目录中,然后将之前的 hfile 删除掉,该目录由 HMaster 上的一个定时任务定期去清理。
3、/hbase/.corrupt
存储HBase做损坏的日志文件,一般都是为空的。
4、/hbase/.hbck
HBase 运维过程中偶尔会遇到元数据不一致的情况,这时候会用到提供的 hbck 工具去修复,修复过程中会使用该目录作为临时过度缓冲。
5、/hbase/WAL
大家都知道 HBase 是支持 WAL(Write Ahead Log) 的,HBase 会在第一次启动之初会给每一台 RegionServer 在.log 下创建一个目录,若客户端如果开启WAL 模式,会先将数据写入一份到.log 下,当 RegionServer crash 或者目录达到一定大小,会开启 replay 模式,类似 MySQL 的 binlog。
6、/hbase/oldlogs
当.logs 文件夹中的 HLog 没用之后会 move 到.oldlogs 中,HMaster 会定期去清理。
7、/hbase/.snapshot
hbase若开启了 snapshot 功能之后,对某一个用户表建立一个 snapshot 之后,snapshot 都存储在该目录下,如对表test 做了一个 名为sp_test 的snapshot,就会在/hbase/.snapshot/目录下创建一个sp_test 文件夹,snapshot 之后的所有写入都是记录在这个 snapshot 之上。
8、/hbase/.tmp
当对表做创建或者删除操作的时候,会将表move 到该 tmp 目录下,然后再去做处理操作。
9、/hbase/hbase.id
它是一个文件,存储集群唯一的 cluster id 号,是一个 uuid。
10、/hbase/hbase.version
同样也是一个文件,存储集群的版本号,貌似是加密的,看不到,只能通过web-ui 才能正确显示出来。
2019/1/16 星期三
HBase二级索引实现方案 https://blog.csdn.net/wypersist/article/details/79830811
HBase的局限性 : HBase本身只提供基于行键和全表扫描的查询,而行键索引单一,对于多维度的查询困难。
HBase的一级索引就是rowkey,我们只能通过rowkey进行检索。如果我们相对hbase里面列族的列列进行一些组合查询,就需要采用HBase的二级索引方案来进行多条件的查询。
Solr+hbase方案
详细解释 hbase分布式存储机制简介 //见单独文档
region server 可以由很多个 根据数据的规模来的
regionserver01 regionserver02 regionserver03
用户具体创建的表是在hbase中具体怎么存储的?
当一个大表的若干行达到一定范围的时候(若干行的数据量达到10G就划分为一个region)
每一个region会交给每一个regionserver去管理
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。