admin管理员组

文章数量:1611531

问题:datanode正常运行,但是hdfs dfsadmin -report时文件空间为0

例如:

     
解决方案

原因:Slave对Master的访问存在问题。

1.查看sudo vim /etc/hosts里的ip映射是否有问题,可以把除需要用到的ip映射之外的所有映射全都删除,尤其是不能出现例如172.0.0.1 Master 这样的情况;

2.hdfs配置文件core-side或hdfs-side等配置出错,重点查看其中的ip地址和别名是否对应上;

3.关闭hdfs,格式化namenode:hdfs namenode -format ,重启。这个操作少做,会导致namenode和datanode 的currentID不同,也会出现上述bug。最好在关闭hdfs之后把所有机器的hadoop/tmp文件夹删除。

4.如上所诉,查看namenode的currentID要和datanode的是否一致,保存ID的文件在/hadoop/tmp/dfs/name(data)/current/VERSION.不一致就把namenode的ID复制粘贴到其他datanode上。

5.最终办法:如果只是为了做实验或课设,实在不行就在Master也创建一个datanode,只需要在Master节点的Slave文件中添加一行Master,仍旧是分布式集群而不是伪分布。

 

作者也在学习中,如果有错误欢迎指正,如果有新的办法欢迎评论区留言呀~

 

本文标签: 解决办法正常运行精华HDFSLinux