HDFS适用场景和不适用场景

编程入门 行业动态 更新时间:2024-10-27 14:28:07

HDFS适用<a href=https://www.elefans.com/category/jswz/34/1770727.html style=场景和不适用场景"/>

HDFS适用场景和不适用场景

HDFS适用场景

  1. 海量数据存储: HDFS可横向扩展,其存储的文件可以支持PB级别或更高级别的数据存储。
  2. 高容错性:数据保存多个副本,副本丢失后自动恢复。可构建在廉价的机器上,实现线性扩展。当集群增加新节点之后,namenode也可以感知,进行负载均衡,将数据分发和备份数据均衡到新的节点上。
  3. 商用硬件:Hadoop并不需要运行在昂贵且高可靠的硬件上。它是设计运行在商用硬件(廉价商业硬件)的集群上的。
  4. 大文件存储:HDFS采用数据块的方式存储数据,将数据物理切分成多个小的数据块。所以再大的数据,切分后,大数据变成了很多小数据。用户读取时,重新将多个小数据块拼接起来。
  5. 一次写入多次读取。HDFS 是设计成适应一次写入,多次读出的场景,且不支持文件的修改。
    正因为如此,HDFS 适合用来做大数据分析的底层存储服务,并不适合用来做.网盘等应用,因为,修改不方便,延迟大,网络开销大,成本太高。

HDFS不适用场景

  1. 不能做到低延迟数据访问:由于hadoop针对高数据吞吐量做了优化,牺牲了获取数据的延迟,所以对于低延迟访问数据的业务需求不适合HDFS。
  2. 不适合大量的小文件存储 :由于namenode将文件系统的元数据存储在内存中,因此该文件系统所能存储的文件总数受限于namenode的内存容量。根据经验,每个文件、目录和数据块的存储信息大约占150字节。因此,如果有一百万个小文件,每个小文件都会占一个数据块,那至少需要300MB内存。如果是上亿级别的,就会超出当前硬件的能力。
  3. 修改文件:。HDFS适合一次写入,多次读取的场景。对于上传到HDFS上的文件,不支持修改文件。Hadoop2.0虽然支持了文件的追加功能,但不建议对HDFS上的文件进行修改。因为效率低下.
  4. 不支持用户的并行写:同一时间内,只能有一个用户执行写操作。

更多推荐

HDFS适用场景和不适用场景

本文发布于:2024-02-11 04:46:50,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1679192.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:场景   不适用   HDFS

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!