HBASE 常用shell命令,增删改查方法

1、首先给出本次操作的数据

create 'student','info','address'
put 'student','1','info:age','20'
put 'student','1','info:name','wang'
put 'student','1','info:class','1'
put 'student','1','address:city','zhengzhou'
put 'student','1','address:area','High-tech zone'
put 'student','2','info:age','21'
put 'student','2','info:name','yang'
put 'student','2','info:class','1'
put 'student','2','address:city','beijing'
put 'student','2','address:area','CBD'
put 'student','3','info:age','22'
put 'student','3','info:name','zhao'
put 'student','3','info:class','2'
put 'student','3','address:city','shanghai'
put 'student','3','address:area','pudong'
scan 'student'

2、首先执行,创建表,增加数据操作,执行脚本 /bin/hbase shell ./student.txt,然后查看内容 scan ‘student'

hbase(main):001:0> scan 'student'
ROW      COLUMN+CELL
 1       column=address:area, timestamp=1491533426260, value=High-tech zone
 1       column=address:city, timestamp=1491533426239, value=zhengzhou
 1       column=info:age, timestamp=1491533426179, value=20
 1       column=info:class, timestamp=1491533426218, value=1
 1       column=info:name, timestamp=1491533426211, value=wang
 2       column=address:area, timestamp=1491533426297, value=CBD
 2       column=address:city, timestamp=1491533426292, value=beijing
 2       column=info:age, timestamp=1491533426269, value=21
 2       column=info:class, timestamp=1491533426287, value=1
 2       column=info:name, timestamp=1491533426277, value=yang
 3       column=address:area, timestamp=1491533426329, value=pudong
 3       column=address:city, timestamp=1491533426323, value=shanghai
 3       column=info:age, timestamp=1491533426305, value=22
 3       column=info:class, timestamp=1491533426317, value=2
 3       column=info:name, timestamp=1491533426311, value=zhao
3 row(s) in 0.1940 seconds

3、修改操作 也是用put命令,就是重新添加内容把,把以前的内容覆盖。

格式 put 't1', 'r1', 'c1', 'value'
命令 put 'student','1','info:age','18'
结果
hbase(main):010:0> get 'student','1'
COLUMN      CELL
 address:area    timestamp=1491533426260, value=High-tech zone
 address:city    timestamp=1491533426239, value=zhengzhou
 info:age     timestamp=1491533823331, value=18
 info:class    timestamp=1491533426218, value=1
 info:name     timestamp=1491533426211, value=wang
5 row(s) in 0.0110 seconds

4、删除操作,分为删除单元格的内容,和整行删除

单元格

hbase(main):012:0> delete 'student','1','info:name'
0 row(s) in 0.0800 seconds

hbase(main):014:0> get 'student','1'
COLUMN      CELL
 address:area    timestamp=1491533426260, value=High-tech zone
 address:city    timestamp=1491533426239, value=zhengzhou
 info:age     timestamp=1491533823331, value=18
 info:class    timestamp=1491533426218, value=1
4 row(s) in 0.0120 seconds

整行

hbase(main):023:0> deleteall 'student','1'
0 row(s) in 0.0260 seconds

hbase(main):024:0> get 'student','1'
COLUMN      CELL
0 row(s) in 0.0070 seconds

5、查询

单行查询

hbase(main):026:0> get 'student','2'
COLUMN      CELL
 address:area    timestamp=1491533426297, value=CBD
 address:city    timestamp=1491533426292, value=beijing
 info:age     timestamp=1491533426269, value=21
 info:class    timestamp=1491533426287, value=1
 info:name     timestamp=1491533426277, value=yang
5 row(s) in 0.0190 seconds

指定列族

hbase(main):028:0> get 'student', '2', {COLUMN => 'info'}
COLUMN      CELL
 info:age     timestamp=1491533426269, value=21
 info:class    timestamp=1491533426287, value=1
 info:name     timestamp=1491533426277, value=yang
3 row(s) in 0.0150 seconds

指定列名

hbase(main):029:0> get 'student', '2', {COLUMN => 'info:age'}
COLUMN      CELL
 info:age     timestamp=1491533426269, value=21
1 row(s) in 0.0080 seconds

使用scan,指定startrow

 hbase(main):031:0> scan 'student', {COLUMNS => ['info:age', 'address'], LIMIT => 10, STARTROW => '2'}
ROW      COLUMN+CELL
 2       column=address:area, timestamp=1491533426297, value=CBD
 2       column=address:city, timestamp=1491533426292, value=beijing
 2       column=info:age, timestamp=1491533426269, value=21
 3       column=address:area, timestamp=1491533426329, value=pudong
 3       column=address:city, timestamp=1491533426323, value=shanghai
 3       column=info:age, timestamp=1491533426305, value=22
2 row(s) in 0.0190 seconds

scan指定过滤

hbase(main):005:0> scan 'student',{FILTER=>"(TimestampsFilter (1491533426297))"}
ROW      COLUMN+CELL
 2       column=address:area, timestamp=1491533426297, value=CBD
1 row(s) in 0.0170 seconds

以上这篇HBASE 常用shell命令,增删改查方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持我们。

(0)

相关推荐

  • hbase-shell批量命令执行脚本的方法

    批量执行hbase shell 命令 #!/bin/bash source /etc/profile exec $HBASE_HOME/bin/hbase shell <<EOF truncate 'tracker_total_apk_fact_zyt' major_compact('t_abc') disable 't_abc' drop 't_abc' create 't_abc', 'info' EOF 以上这篇hbase-shell批量命令执行脚本的方法就是小编分享给大家的全部内容了,

  • 通用MapReduce程序复制HBase表数据

    编写MR程序,让其可以适合大部分的HBase表数据导入到HBase表数据.其中包括可以设置版本数.可以设置输入表的列导入设置(选取其中某几列).可以设置输出表的列导出设置(选取其中某几列). 原始表test1数据如下: 每个row key都有两个版本的数据,这里只显示了row key为1的数据 在hbase shell 中创建数据表: create 'test2',{NAME => 'cf1',VERSIONS => 10} // 保存无版本.无列导入设置.无列导出设置的数据 create '

  • Hbase、elasticsearch整合中jar包冲突的问题解决

    问题背景 再数据平台中,项目搭建需要使用es和HBASE搭建数据查询接口,整合的过程中出现jar包冲突的bug :com.google.common.base.Stopwatch.()V from class org.apache.hadoop.hbase.zookeeper.MetaTableLocator org.apache.hadoop.hbase.DoNotRetryIOException: java.lang.IllegalAccessError: tried to access m

  • python hbase读取数据发送kafka的方法

    本例子实现从hbase获取数据,并发送kafka. 使用 #!/usr/bin/env python #coding=utf-8 import sys import time import json sys.path.append('/usr/local/lib/python3.5/site-packages') from thrift import Thrift from thrift.transport import TSocket from thrift.transport import

  • python 调用HBase的简单实例

    新来的一个工程师不懂HBase,java不熟,python还行,我建议他那可以考虑用HBase的thrift调用,完成目前的工作. 首先,安装thrift 下载thrift,这里,我用的是thrift-0.7.0-dev.tar.gz 这个版本 tar xzf thrift-0.7.0-dev.tar.gz cd thrift-0.7.0-dev sudo ./configure --with-cpp=no --with-ruby=no sudo make sudo make install 然

  • 在php的yii2框架中整合hbase库的方法

    Hbase通过thrift这个跨语言的RPC框架提供多语言的调用. Hbase有两套thrift接口(thrift1和thrift2),但是它们并不兼容.根据官方文档,thrift1很可能被抛弃,本文以thrift2整合为例. 1.访问官网http://thrift.apache.org/download,下载 thrift-0.11.0.exe   (生成接口rpc工具,thrift-0.11.0.exe改名thrift.exe,保存在D:\project\thrift\thrift.exe)

  • 详解spring封装hbase的代码实现

    前面我们讲了spring封装MongoDB的代码实现,这里我们讲一下spring封装Hbase的代码实现. hbase的简介: 此处大概说一下,不是我们要讨论的重点. HBase是一个分布式的.面向列的开源数据库,HBase在Hadoop之上提供了类似于Bigtable的能力.HBase是Apache的Hadoop项目的子项目.HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库.另一个不同的是HBase基于列的而不是基于行的模式.hbase是bigtable的开源山寨版本.

  • python利用thrift服务读取hbase数据的方法

    因工作需要用python通过hbase的thrift服务读取Hbase表数据,发现公司的测试环境还不支持,于是自己动手准备环境,在此我将在安装步骤尽可能描述清楚,旨在给第一次动手安装的朋友,此过程亲测成功! 安装过程如下: 1.首先确保hbase安装测试成功,再者确认下hbase的thrift服务是否启动,注意目前的Hbase(本文基于版本0.98.17)有两套thrift接口thrift和thrift2,本文使用thrift,启动命令:hbase thrift -p 9090 start,确保

  • 详解VMware12使用三台虚拟机Ubuntu16.04系统搭建hadoop-2.7.1+hbase-1.2.4(完全分布式)

    初衷 首先说明一下既然网上有那么多教程为什么要还要写这样一个安装教程呢?网上教程虽然多,但是有些教程比较老,许多教程忽略许多安装过程中的细节,比如添加用户的权限,文件权限,小编在安装过程遇到许多这样的问题所以想写一篇完整的教程,希望对初学Hadoop的人有一个直观的了解,我们接触真集群的机会比较少,虚拟机是个不错的选择,可以基本完全模拟真实的情况,前提是你的电脑要配置相对较好不然跑起来都想死,废话不多说. 环境说明 本文使用VMware® Workstation 12 Pro虚拟机创建并安装三台

  • Hbase入门详解

    1.hbase概述 1.1 hbase是什么 hbase是基于hdfs进行数据的分布式存储,具有高可靠.高性能.列存储.可伸缩.实时读写的nosql数据库. hbase可以存储海量的数据,并且后期查询性能很高,可以实现上亿条数据的查询秒级返回结果. 1.2 hbase表的特性 1.大 hbase表可以存储海量的数据. 2.无模式 mysql表中每一行列的字段是相同,而hbase表中每一行数据可以有截然不同的列. 3.面向列 hbase表中的数据可以有很多个列,后期它就是按照不同的列去存储数据,写

随机推荐