摘要: 首先来了解一下HDFS的一些基本特性 HDFS设计基础与目标 硬件错误是常态。因此需要冗余 流式数据访问。即数据批量读取而非随机读写,Hadoop擅长做的是数据分析而不是事务处理 大规模数据集 简单一致性模型。为了降低系统复杂度,对文件采用一次性写多次读的逻辑设计,即是文件一经写入,关闭,就再也不能修改 程序采用“数据就近”原则分配节点执行 HDFS... 阅读全文
posted @ 2013-05-18 23:16 Elaine Shi 阅读(10319) 评论(0) 推荐(0) 编辑