admin管理员组文章数量:1564186
前提Java已经安装
安装准备
下载链接:链接
解压
- 将hadoop 到自己想要解压的路径下(这我解压到D盘下)
修改配置文件
- 进入etc/hadoop/下修改 core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml
core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/D:/hadoop-3.3.2/data/tmp</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<!--单机启动-->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/D:/hadoop-3.3.2/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/D:/hadoop-3.3.2/data/datanode</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<!-- nodemanager要求的内存最低为1024 nodemanager 要求的内存最低为1G,所以value至少是1024,否则无法启动nodemanager -->
<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>1024</value>
</property>
<property>
<name>yarn.nodemanager.resource.cpu-vcores</name>
<value>1</value>
</property>
</configuration>
- 修改 workers 为 localhost
- 修改hadoop-env.cmd
set JAVA_HOME=D:\java\jdk\jdk11
替换lib目录下的文件
如果您双击 winutils.exe 文件闪退,不报错,就说明没有任何问题
配置hadoop环境变量
格式化hadoop
打开命令行窗口
输入:hadoop namenode -format 看到成功的单词即可
进入hadoop的sbin目录执行start-all.cmd 没有报错后进入hadoop下的bin目录执行
看到这三个进程即可
注意: 启动可能会报时间错误,需要复制share文件夹下的时间jar到下图bin目录下即可
访问web页面
hadoop3.2以上的版本 web访问端口从原来的 50070 改为了 9870
http://localhost:9870/
http://localhost:8088/
至此hadoop3.2.2版本 已完成
本文标签: 最新版本
版权声明:本文标题:win11安装hadoop3.3.2(当前最新版本) 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://www.elefans.com/dongtai/1727483575a1117005.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论