admin管理员组文章数量:1611531
问题:datanode正常运行,但是hdfs dfsadmin -report时文件空间为0
例如:
解决方案:
原因:Slave对Master的访问存在问题。
1.查看sudo vim /etc/hosts里的ip映射是否有问题,可以把除需要用到的ip映射之外的所有映射全都删除,尤其是不能出现例如172.0.0.1 Master 这样的情况;
2.hdfs配置文件core-side或hdfs-side等配置出错,重点查看其中的ip地址和别名是否对应上;
3.关闭hdfs,格式化namenode:hdfs namenode -format ,重启。这个操作少做,会导致namenode和datanode 的currentID不同,也会出现上述bug。最好在关闭hdfs之后把所有机器的hadoop/tmp文件夹删除。
4.如上所诉,查看namenode的currentID要和datanode的是否一致,保存ID的文件在/hadoop/tmp/dfs/name(data)/current/VERSION.不一致就把namenode的ID复制粘贴到其他datanode上。
5.最终办法:如果只是为了做实验或课设,实在不行就在Master也创建一个datanode,只需要在Master节点的Slave文件中添加一行Master,仍旧是分布式集群而不是伪分布。
作者也在学习中,如果有错误欢迎指正,如果有新的办法欢迎评论区留言呀~
版权声明:本文标题:[精华]linux下hdfs的datanode正常运行,但是hdfs dfsadmin -report全部为0,Configured Capacity:0(0B)的5种解决办法. 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://www.elefans.com/dianzi/1728620811a1166334.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论