Hadoop 存档---解决小文件存储问题

编程入门 行业动态 更新时间:2024-10-25 10:23:06

Hadoop 存档---解决小<a href=https://www.elefans.com/category/jswz/34/1771438.html style=文件存储问题"/>

Hadoop 存档---解决小文件存储问题

1)理论概述

1 HDFS存储小文件弊端

每个文件均按块存储,每个块的元数据存储在namenode 的内存中,因此 hadoop 存储小文件会非常低效。因为大量的小文件会耗尽 namenode 中的大部分内存。但注意,存储小文件所需要的磁盘容量和存储这些文件原始内容所需要的磁盘空间相比也不会增多。例如,一个 1MB 的文件以大小为 128MB 的块存储,使用的是 1MB 的磁盘空间,而不是 128MB。

2.解决存储小文件办法之一

Hadoop 存档文件或 HAR 文件,是一个更高效的文件存档工具,它将文件存入 HDFS块,在减少 namenode 内存使用的同时,允许对文件进行透明的访问。具体说来,Hadoop存档文件对内还是一个一个独立文件,对NameNode而言却是一个整体,减少了NameNode的内存
存档文件可以用作 MapReduce 的输入。

3.案例实操

(1)需要启动YARN进程
start-yarn.sh
(2)归档文件
把/user/atguigu/input目录里面的所有文件归档成一个叫input.har的归档文件,并把归档后文件存储到/user/atguigu/output路径下。
bin/hadoop archive -archiveName input.har –p /user/atguigu/input /user/atguigu/output
(3)查看归档
hadoop fs -lsr /user/atguigu/output/input.har
hadoop fs -lsr har:///user/atguigu/output/input.har
(4)解归档文件
hadoop fs -cp har:/// user/atguigu/output/input.har/* /user/atguigu

总结:
HDFS不太适合存储小文件!

①源头上解决,在上传大量小文件时! 将大量小文件打包为一个文件!
②如果小文件已经上传到了HDFS,可以使用HDFS提供的归档工具Har
类似tar工具!

归档需要运行一个MR程序进行归档操作!如果MR运行在YARN上,需要启动RM,NM!

归档: hadoop archive -archiveName 归档后目录名 -p 源文件父目录 src* 归档后存放目的地

查看: hadoop fs -ls -R har:///xxx

解档: hadoop fs -cp har:///xxx 目的地

更多推荐

Hadoop 存档---解决小文件存储问题

本文发布于:2023-07-28 17:39:53,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1265235.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:文件   Hadoop

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!