HBase
 sql >> база данни >  >> NoSQL >> HBase

HBase примерна таблица

Нека създадем проста таблица HBase от нулата!

Има много начини да създадете HBase таблица и да я попълните:групово натоварване, hbase shell, кошер с HBaseStorageHandler и т.н.
Тук ще използваме класа ImportTsv, който има за цел да анализира .tsv файл, за да го вмъкне в съществуваща таблица HBase.

Първо, нека вземем малко данни!

Изтеглете access.tsv на всяка машина от вашия клъстер:това е 2Gb компресиран файл с примерни данни, разделени с табулатори, съдържащ колони rowkey,date,refer-url и http-код и го поставете в HDFS.

[root@sandbox ~]# gunzip access.tsv.gz
[root@sandbox ~]# hdfs dfs -copyFromLocal ./access.tsv /tmp/

Сега трябва да създадем таблицата в HBase shell; той ще съдържа само едно семейство ColumnFamily за този пример

[root@sandbox ~]# hbase shell
hbase(main):001:0> create 'access_demo','cf1'
0 row(s) in 14.2610 seconds

И започнете импортирането с ad hoc класа, изберете колоните (не забравяйте HBASE_ROW_KEY която може да бъде всяка от колоните, следователно тя е първата тук).
Синтаксисът е hbase JAVA_CLASS -DPARAMETERS TABLE_NAME FILE

Обърнете внимание, че можете да посочите разделител tsv ‘-Dimporttsv.separator=,’ и че очевидно можете да добавяте различни семейства колони cf1:field1,cf1:field2,cf2:field3,cf2:field4

[root@sandbox ~]# hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.columns=HBASE_ROW_KEY,cf1:date,cf1:refer-url,cf1:http-code access_demo /tmp/access.tsv

2015-05-21 19:55:38,144 INFO [main] mapreduce.Job: Job job_1432235700898_0002 running in uber mode : false
2015-05-21 19:55:38,151 INFO [main] mapreduce.Job: map 0% reduce 0%
2015-05-21 19:56:00,718 INFO [main] mapreduce.Job: map 7% reduce 0%
2015-05-21 19:56:03,742 INFO [main] mapreduce.Job: map 21% reduce 0%
2015-05-21 19:56:06,785 INFO [main] mapreduce.Job: map 65% reduce 0%
2015-05-21 19:56:10,846 INFO [main] mapreduce.Job: map 95% reduce 0%
2015-05-21 19:56:11,855 INFO [main] mapreduce.Job: map 100% reduce 0%
2015-05-21 19:56:13,948 INFO [main] mapreduce.Job: Job job_1432235700898_0002 completed successfully

Нека проверим :

[root@sandbox ~]# hbase shell
hbase(main):001:0> list
TABLE
access_demo
iemployee
sales_data
3 row(s) in 9.7180 seconds

=> ["access_demo", "iemployee", "sales_data"]
hbase(main):002:0> scan 'access_demo'
ROW COLUMN+CELL
# rowkey column=cf1:date, timestamp=1432238079103, value=date
# rowkey column=cf1:http-code, timestamp=1432238079103, value=http-code
# rowkey column=cf1:refer-url, timestamp=1432238079103, value=refer-url
74.201.80.25/san-rafael-ca/events/sho column=cf1:date, timestamp=1432238079103, value=2008-01-25 16:20:50
w/80343522-eckhart-tolle
74.201.80.25/san-rafael-ca/events/sho column=cf1:http-code, timestamp=1432238079103, value=200
w/80343522-eckhart-tolle
74.201.80.25/san-rafael-ca/events/sho column=cf1:refer-url, timestamp=1432238079103, value=www.google.com/search
w/80343522-eckhart-tolle
calendar.boston.com/ column=cf1:date, timestamp=1432238079103, value=2008-01-25 19:35:50
calendar.boston.com/ column=cf1:http-code, timestamp=1432238079103, value=200

Това е!


  1. Redis
  2.   
  3. MongoDB
  4.   
  5. Memcached
  6.   
  7. HBase
  8.   
  9. CouchDB
  1. Изграждане на мащабируем процес с помощта на NiFi, Kafka и HBase на CDP

  2. Как да:Използвайте интерфейса REST на Apache HBase, част 3

  3. Как HBase в CDP може да използва S3 на Amazon

  4. HDFS урок – пълно въведение в HDFS за начинаещи

  5. HDFS Data Block – Научете вътрешностите на Big Data Hadoop