虽然有一些正式的文档, 但是我发现在后期用HBase去设置一个Hive还是比较繁琐。这些有帮助性的文档能够使我们快速入门。该文章假设你已经搭建了HBase。 如果没有的话,去看我的HBase quickstart这篇文章。
注: 这些是针对于开发的用法。 他们没有使用 HDFS, 举例说明。 作为在产品开发中的一份充分而全面的文档,可以去关注 CDH4 方面比较卓越的地方。
Linuxsudo apt-get install hive
# create directory that Hive stores data in by default
sudo mkdir -p /user/hive/warehouse
sudo chown -R myusername:myusername /user/hive/warehouse/
# copy HBase JARs into the Hive lib
sudo cp /usr/share/hbase/hbase-0.92.1.jar /usr/lib/hive/lib
sudo cp /usr/share/Hadoop-zookeeper/zookeeper-3.4.3.jar /usr/lib/hive/lib
brew install hive
连接到 HBase现在, 你可以由HBase去创建一个表并通过hive命令行去启动hive。 在下面的例子中, 我的HBase表将会被调用来用于测试,并且将会有一个integer类型的值去被该值调用。 记录表的删除/创建操作仅仅是Hive元数据的一种有效性。 这种操作在HBase中没有什么实际的改变。
DROP TABLE IF EXISTS test;
CREATE EXTERNAL TABLE
test(key string, values map<string, int>)
STORED BY
'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
WITH SERDEPROPERTIES (
"hbase.columns.mapping" = ":key,values:"
)
TBLPROPERTIES (
"hbase.table.name" = "test"
);
SELECT * FROM test;
>c4ca4-0000001-79879483-000000000124-000000000000000000000000000025607621 {'comments':0, 'likes':0}
>c4ca4-0000001-79879483-000000000124-000000000000000000000000000025607622 {'comments':0, 'likes':0}
在上文中表里给予了你一个行数据, 下面是关于 GROUP/SUM 的 map reduce实例, 在这种类型的列中,你能对HBase的各种列值进行求和。该实例创建了一个视图用于去处理HBase的一个行键值的引爆点。你能够在最后用 INSERT OVERWRITE 去声明所支持Hbase的结果集写入操作。
CREATE VIEW
test_view AS
SELECT
substr(key, 0, 36) as org_date_asset_prefix,
split(key, '-')[2] as inverse_date_str,
stats['comments'] as comments,
stats['likes'] as likes
FROM
test;
SELECT
org_date_asset_prefix,
map(
'comments', SUM(comments),
'likes', SUM(likes)
) as stats
FROM
test_view
GROUP BY
org_date_asset_prefix;
如果你想通过thrift去连接Hive,你可以去启动一个针对于hive的thrift服务 -- service hiveserver. Hiver 是一个非常小巧而不错的 Python API 包装器。
import hiver
client = hiver.connect(host, port)
client.execute('SHOW TABLES')
rows = client.fetchAll()