您现在的位置 >> Hadoop教程 >> Hadoop实战 >> 专题  
 

HBase 实践

【作者:Hadoop实战专家】【关键词:查询 时间 】 【点击:2282次】【2013-01-2】
(1)时间戳到时间的转换. String timeresult=format.format(date); SimpleDateFormat sdf=new SimpleDateFormat("yyyy-MM-dd HH:mm:ss"); HTable table = (HTable) pool.getTable(tableName); Result r = table.get(scan);  

相关热门搜索:

大数据标签:hadoop hbase zookeeper bigdata

(1)时间戳到时间的转换.单一的时间戳无法给出直观的解释。

[java] view plaincopyprint?

1. public String GetTimeByStamp(String timestamp)
2.  {
3.   long datatime= Long.parseLong(timestamp);
4.      Date date=new Date(datatime);
5.      SimpleDateFormat   format=new   SimpleDateFormat("yyyy-MM-dd HH:MM:ss");
6.      String timeresult=format.format(date);
7.      System.out.println("Time : "+timeresult);
8.      return timeresult;
9.  }

(2)时间到时间戳的转换。注意时间是字符串格式。字符串与时间的相互转换,此不赘述。

[java] view plaincopyprint?

1. public String GetStampByTime(String time)
2.  {
3.   String Stamp="";
4.   SimpleDateFormat sdf=new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
5.   Date date;
6.   try
7.   {
8.    date=sdf.parse(time);
9.    Stamp=date.getTime()+"000";
10.    System.out.println(Stamp);
11.   }catch(Exception e){e.printStackTrace();}
12.   return Stamp;
13.  }

[java] view plaincopyprint?

1. package com.hbase;
2.
3. import java.io.IOException;
4. import java.io.ByteArrayOutputStream;
5. import java.io.DataOutputStream;
6. import java.io.ByteArrayInputStream;
7. import java.io.DataInputStream;
8. import java.util.ArrayList;
9. import java.util.List;
10. import java.util.Map;
11.
12. import org.apache.hadoop.io.Writable;
13. import org.apache.hadoop.io.IntWritable;
14. import org.apache.hadoop.conf.Configuration;
15. import org.apache.hadoop.hbase.HBaseConfiguration;
16. import org.apache.hadoop.hbase.HTableDescriptor;
17. import org.apache.hadoop.hbase.HColumnDescriptor;
18. import org.apache.hadoop.hbase.KeyValue;
19. import org.apache.hadoop.hbase.MasterNotRunningException;
20. import org.apache.hadoop.hbase.ZooKeeperConnectionException;
21. import org.apache.hadoop.hbase.client.Get;
22. import org.apache.hadoop.hbase.client.HBaseAdmin;
23. import org.apache.hadoop.hbase.client.HTable;
24. import org.apache.hadoop.hbase.client.HTableInterface;
25. import org.apache.hadoop.hbase.client.HTablePool;
26. import org.apache.hadoop.hbase.client.Put;
27. import org.apache.hadoop.hbase.client.Result;
28. import org.apache.hadoop.hbase.client.ResultScanner;
29. import org.apache.hadoop.hbase.client.Scan;
30. import org.apache.hadoop.hbase.filter.CompareFilter.CompareOp;
31. import org.apache.hadoop.hbase.filter.Filter;
32. import org.apache.hadoop.hbase.filter.FilterList;
33. import org.apache.hadoop.hbase.filter.SingleColumnValueFilter;
34.
35. import org.apache.hadoop.hbase.util.Bytes;
36. import org.apache.hadoop.hbase.util.Writables;
37. import org.apache.zookeeper.KeeperException;
38.
39. @SuppressWarnings("deprecation")
40. public class HBaseAPI {
41.
42.     static HBaseConfiguration cfg = null;
43.     static {
44.         Configuration HBASE_CONFIG = new Configuration();
45.         HBASE_CONFIG.set("hbase.zookeeper.quorum", "feige");
46.         HBASE_CONFIG.set("hbase.zookeeper.property.clientPort", "2222");
47.         cfg = new HBaseConfiguration(HBASE_CONFIG);
48.
49.     }
50.     //static HTablePool pool = new HTablePool(cfg, 1000);
51.
52.     /**
53.      * 创建表
54.      * @param tableName
55.      */
56.     public static void createTable(String tableName,String[]families) {
57.         System.out.println("start create table ......");
58.         try {
59.             HBaseAdmin hBaseAdmin = new HBaseAdmin(cfg);
60.             if (hBaseAdmin.tableExists(tableName)) {// 如果存在要创建的表,那么先删除,再创建
61.                 hBaseAdmin.disableTable(tableName);
62.                 hBaseAdmin.deleteTable(tableName);
63.                 System.out.println(tableName + " is exist,detele....");
64.             }
65.             HTableDescriptor tableDescriptor = new HTableDescriptor(tableName);
66.             for(int i=0;i filters = new ArrayList();
220.
221.             for(int index=0;index

大数据系列相关文章:

最新评论
幸福满满2014-09-10 06:03:36
夹在Cloudera和Hortonworks一堆蠢蠢欲吵的码农中间提交patch是件极度悲催的事,一边干活一边防着别让吵起来把哥晾了一边,太TMD的不尊严了,Facebook的Dhruba哥一票人当年一气之下完全脱离Hadoop社区估计也是被那两家人气的吧?
龙华陌爱2014-09-09 06:33:43
没有这么低吧
牙刷-潘兴华2014-09-08 05:50:54
怎么奇怪
数据分析微招聘2014-09-07 11:16:33
hadoop入门教程及其实例代码-分享-最代码 http://t.cn/RhAehAz
ouycw2014-09-07 06:14:21
14/08/20 01:15:34 WARN hdfs.DFSClient: DataStreamer Exception: org.apache.hadoop.ipc.RemoteException: java.io.IOException: File /user/hadoop/reader.txt could only be replicated to 0 nodes, instead of 1
sl2014-09-06 05:14:46
【数盟公开课】第四期:PIG基础知识,适合Hadoop入门级选手,公开课详情:http://t.cn/RPIXow8
客满楼2014-09-06 03:09:53
isInProgress: false
young tall2014-09-04 11:48:32
Storm程序执行的入口点是哪个类?
a华2014-09-04 08:13:54
【中国联通成功部署大数据平台】12月14日消息,中国联通研究院副院长黄文良表示,今年中国联通成功将大数据和Hadoop技术引入到移动通信用户上网记录集中查询与分析支撑系统。截止到目前,我们已经部署了4.5PB的存储空间。其中,4.5PB存储分布在300个数据节点上,即每个节点配备15TB的存储空间。
陶冶2014-09-03 03:32:28
HDFS API详解 | Hadoop中关于文件操作类基本上全部是在\"org.apache.hadoop.fs\"包中,这些API能够支持的操作包含:打开文件,读写文件,删除文件等。Hadoop类库中最终面向用户提供的接口类是FileSystem,该类是个抽象类,只能通过来类的get方 RPCn6It
 
  • Hadoop生态系统资料推荐