博客 Windows环境下安装Hadoop3.1.0全过程(超详细手把手一条龙教学)

Windows环境下安装Hadoop3.1.0全过程(超详细手把手一条龙教学)

   数栈君   发表于 2023-10-12 11:44  427  0

1、查看是否安装好了Java开发环境
在cmd中输入java -version

若能成功显示java jdk的版本号则代表java环境已安装成功(注意要配置好JAVA_HOME,后面步骤中会用到)

若还未安装或配置Java JDK,可以参考以下链接进行安装:Java JDK安装和配置

2、下载安装Hadoop所需要的文件
Hadoop3.1.0版本的安装包:https://archive.apache.org/dist/hadoop/common/hadoop-3.1.0/hadoop-
3.1.0.tar.gz
Windows环境安装所需的bin:https://github.com/s911415/apache-hadoop-3.1.0-winutils
3、解压已下载的文件
我的hadoop-3.1.0解压后文件夹的路径为D:\hadoop-3.1.0


4、替换原安装包的bin文件夹

可以发现apache-hadoop-3.1.0-winutils-master这个文件夹解压后里面只有bin这一个文件夹,我们将这个bin文件夹复制到hadoop-3.1.0文件夹中替换原有的bin文件夹


5、配置Hadoop环境变量



在新建系统变量中:变量名填HADOOP_HOME,变量值填hadoop-3.1.0对应的路径(比如我的是D:\hadoop-3.1.0)

顺便可以检查一下JAVA_HOME有没有配置好,后面会用到
然后点击Path变量进行编辑,在最前面加上%HADOOP_HOME%\bin;(记得加分号和别的隔开),配置完后如图所示:


6、检查环境变量是否配置成功
配置好环境变量后,win+R 输入cmd打开命令提示符,然后输入hadoop version,按回车,如果出现如图所示版本号,则说明安装成功


7、配置hadoop的配置文件
进入到\hadoop-3.1.0\etc\hadoop文件夹


1. 配置core-site.xml文件

以记事本或其他文本编辑器打开:

找到文档最后的""标签
填入以下内容:

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:900</value>
</property>
</configuration>
1
2
3
4
5
6
注意:最后只有一个configuration标签!可以先去掉原来的configuration标签将以上内容复制粘贴到文档最后;或者将以上内容中configuration标签内的内容复制粘贴到原本文档中的configuration标签中!(最后文档内只能有一个configuration标签,以下几个配置文件也是如此)



2. 配置mapred-site.xml

同样也是在文档末尾添加以下内容:


<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
1
2
3
4
5
6
7
如图所示:



3. 配置yarn-site.xml

文档末尾添加以下内容:

<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>
1
2
3
4
5
6
7
8
9
10


4. 新建namenode文件夹和datanode文件夹
在D:\hadoop-3.1.0创建data2020文件夹(这个也可以是别的名字,但后面配置要对应修改)

在data2020文件夹中(D:\hadoop-3.1.0\data2020)创建datanode和namenode文件夹

5. 配置hdfs-site.xml

在文档底部配置如下内容:

<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>D:\hadoop-3.1.0\data2020\namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>D:\hadoop-3.1.0\data2020\datanode</value>
</property>
</configuration>
1
2
3
4
5
6
7
8
9
10
11
12
13
14
注意两个标签中的地址是刚刚创建的datanode和namenode的对应地址

配置后如图所示:


6、配置hadoop-env.sh
注意!!hadoop-env.sh是.sh文件!有两个“hadoop-env”,一个是cmd文件,一个是sh文件,不要搞混了!
可以右键文件,点击属性,查看该文件的类型:


打开hadoop-env.sh

使用查找功能(ctrl+f)查找export JAVA_HOME,找到相应的位置:

在#export JAVA_HOME=下面一行配置自己电脑上对应的JAVA_HOME/bin路径,注意是以bin结尾的!!
JAVA_HOME的具体路径在环境变量中查找到

7、配置hadoop-env.cmd
注意是.cmd文件!!

.cmd文件无法用记事本打开的话,可以右键用Intellij IDEA打开并编辑

打开后使用查找功能(ctrl+f),输入@rem The java implementation to use查找到对应行

在set JAVA_HOME那一行将自己的JAVA_HOME路径配置上去

到这里配置文件就配置完了,注意每个文件配置完后记得保存!!

8、启动Hadoop服务
在cmd中进入到D:\hadoop-3.1.0\bin路径
或者直接在对应的文件夹里面输入cmd进入


输入hdfs namenode –format命令
如果没报错的话,证明配置文件没出问题!
然后再进入到D:\hadoop-3.1.0\sbin路径

注意,是sbin,不是bin!!



输入start-dfs.cmd命令,会跳出两个窗口,不要关掉它们!

再输入start-yarn.cmd,命令,又会再出现两个窗口,也不要关!

接着在浏览器中访问http://localhost:9870/
如果成功出现以下界面则代表Hadoop安装和配置完成啦!!


免责申明:


本文系转载,版权归原作者所有,如若侵权请联系我们进行删除!

《数据治理行业实践白皮书》下载地址:https://fs80.cn/4w2atu

《数栈V6.0产品白皮书》下载地址:
https://fs80.cn/cw0iw1

想了解或咨询更多有关袋鼠云大数据产品、行业解决方案、客户案例的朋友,浏览袋鼠云官网:
https://www.dtstack.com/?src=bbs

同时,欢迎对大数据开源项目有兴趣的同学加入「袋鼠云开源框架钉钉技术群」,交流最新开源技术信息,群号码:30537511,项目地址:
https://github.com/DTStack

0条评论
社区公告
  • 大数据领域最专业的产品&技术交流社区,专注于探讨与分享大数据领域有趣又火热的信息,专业又专注的数据人园地

最新活动更多
微信扫码获取数字化转型资料
钉钉扫码加入技术交流群