摘要:
首先,看到标题,我想就会有人喷我,①11G对于hadoop而言不值一提②做耗时测试本没有必要,毕竟hadoop用于线下系统。我的想法:没那么复杂,只是想看下hadoop的文件处理能力和表现出的问题,只是单纯的享受这个解决问题并且得到结果的快感。不那么多废话啦!直接进入正题:1、数据来源:apache的日志,接近900万条数据,大小为11个G。2、创建表,并用正则匹配的方式导入数据,(这里hive的正则和普通正则,路由不同,之后会发新的博客讨论这个问题:(hive的正则)http://blog.csdn.net/lengzijian/article/details/7048575):这里正则值提 阅读全文
posted @ 2011-12-06 18:00
h2内存数据库
阅读(337)
评论(0)
推荐(0)

浙公网安备 33010602011771号