博客 Hadoop大数据平台搭建(超详细步骤)

Hadoop大数据平台搭建(超详细步骤)

   数栈君   发表于 2023-07-18 11:55  230  0

1、在原来虚拟机的基础上再克隆两台虚拟机

(1)右键点击虚拟机,点击管理,点击克隆,此步骤重复两次



(2)检查克隆机的ip地址是否与原虚拟机不同,若不同则要修改,我这里在克隆的时候就自动变化了ip地址,故不需要修改





2、修改机器名

(1)在下图红箭头处输入修改名:stu2

命令:vi /etc/hostname



(2)另外两台虚拟机也照此操作即可

(3)重启这三台虚拟机

命令:reboot

改完以后这三台虚拟机的名字分别为:stu、stu2、stu3

3、关闭防火墙

(1)查看防火墙是否关闭



由于初始虚拟机上防火墙就已关闭,所以另外两台克隆机的防火墙也处于关闭状态

4、配置三台主机免密登录

(1)首先在stu(stu2、stu3)上,生成ssh密匙

命令:ssh-keygen -t rsa

回车,在接下来的提示中一直回车,不用输入内容

stu:



stu2:



stu3:



在家目录下的.ssh目录中出现以下两个密钥文件:

stu:



stu2:



stu3:



(2)在stu(stu2、stu3)机器上,将目录切换到.ssh目录下

命令:cd ~/.ssh

(3)在.ssh目录下新建文件authorized_keys文件

命令:touch authorized_keys

(4)将id_rsa.pub文件内容拷贝到authorized_keys文件中

命令:cat id_rsa.pub >> authorized_keys

(5)查看authorized_keys文件中的内容

命令:cat authorized_keys



(6)将stu上.ssh目录下的authorized_keys文件发送到stu2相应的目录下

命令:scp authorized_keys 192.168.80.129:$PWD

在提示后面输入yes,回车

然后输入密码,回车,完成传输

(7)切换到stu2机器上,进入~/.ssh目录中

命令:cd ~/.ssh

(8)将stu2上.ssh目录中id_rsa.pub文件内容拷贝到authorized_keys文件中

命令:cat id_rsa.pub >> authorized_keys

(9)将stu2上.ssh目录中的authorized_keys文件发送到stu3相应的目录下

命令:scp authorized_keys 192.168.80.130:$PWD

在提示中输入yes,回车,然后输入密码

(10)切换到stu3机器上,进入~/.ssh目录中

命令:cd ~/.ssh

(11)将stu3上.ssh目录中id_rsa.pub文件内容拷贝到authorized_keys文件中

命令:cat id_rsa.pub >> authorized_keys

(12)将stu3上.ssh目录中authorized_keys文件回传给stu1和stu2

命令:scp authorized_keys 192.168.80.128:$PWD

scp authorized_keys 192.168.80.129:$PWD

(13)验证(在stu上)

命令:ssh 192.168.80.130



5、建立主机名与IP地址的映射

(1)打开/etc/hosts文件(在stu上)

命令:vi /etc/hosts

在文件中添加:

192.168.80.128 stu

192.168.80.129 stu2

192.168.80.130 stu3



修改完毕后按ESC键,保存退出

(2)将stu上/etc/hosts文件分别分发到stu2、stu3上。

命令:scp /etc/hosts 192.168.180.129:/etc/

scp /etc/hosts 192.168.180.130:/etc/

(3)验证,在stu上ping stu2和stu3

命令:ping 192.168.80.129



命令:ping 192.168.80.130



6、安装JDK(三台机器都需要安装JDK,以stu为例,其它两台操作是一样的)

(1)首先检查系统中是否自带JDK

命令:rpm -qa | grep jdk



(2)用xftp软件将jdk上传到linux的用户家目录下



(3)在根目录下建服务器软件服务目录

命令:mkdir -p /exports/servers



(4)将家目录下的jdk解压到/exports/servers目录下

命令:tar -zxvf jdk-11.0.7_linux-x64_bin.tar.gz -C /exports/servers



(5)查看/exports/servers目录下是否有解压后的文件

命令:ls /exports/servers



(6)配置环境变量

1)将JDK的根目录复制下来,将目录切换到JDK的根目录下

命令:cd /exports/servers/jdk-11.0.7/



2)复制出现的路径

命令:pwd



3)打开环境变量配置文件

命令:vi /etc/profile

4)在文件末尾添加:

export JAVA_HOME=/exports/servers/jdk-11.0.7

export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin



5)保存并退出



(6)重启配置文件并验证环境变量是否配置成功

命令:source /etc/profile

命令:java -version



(7)将stu上的/exports目录的内容分别传输到stu2和stu3上

命令:scp -r /exports stu2:/

scp -r /exports stu3:/





(8)将stu上的/etc/profile环境变量配置文件分别发送到stu2和stu3上

命令:scp /etc/profile stu2:/etc/

scp /etc/profile stu3:/etc/

(9)在stu2和stu3上分别执行 source /etc/profile 命令

(10)分别验证stu2和stu3上的环境变量是否配置成功

stu2:



stu3:



7、安装Hadoop(三台机器都需要安装Hadoop,操作都一样,以stu操作为例)

(1)通过传输软件将hadoop-2.7.2.tar.gz上传到stu的root的家目录下



(2)将hadoop-2.7.2.tar.gz解压到/exports/servers目录下

命令:tar -zxvf hadoop-2.7.2.tar.gz -C /exports/servers/

(3)切换到/exports/servers/hadoop-2.7.2目录下

命令:cd /exports/servers/hadoop-2.7.2

(4)在Hadoop的根目录下新建datas目录

命令:mkdir datas

(5)配置Hadoop

进入etc/hadoop目录下,

命令:cd /exports/servers/hadoop-2.7.2/etc/hadoop/

依次修改本目录下的:hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml以及slaves文件:

修改hadoop-env.sh文件,在该文件中主要就是配置JAVA_HOME
命令:vi hadoop-env.sh



修改core-site.xml
命令:vi core-site.xml



修改hdfs-site.xml
命令:vi hdfs-site.xml



修改mapred-site.xml文件
在hadoop下没有mapred-site.xml文件,我们需要将mapred-site.xml.template文件修改为mapred-site.xml
命令:cp mapred-site.xml.template mapred-site.xml

打开mapred-site.xml文件

命令:vi mapred-site.xml



修改yarn-site.xml
命令:vi yarn-site.xml

配置slaves文件
命令:vi slaves

删除localhost,在文件中加入以下内容:

stu

stu2

stu3



将hadoop根目录下的bin中命令加入系统PATH中
命令:vi /etc/profile

加入以下内容

最终文件如下:

export HADOOP_HOME=/exports/servers/hadoop-2.7.2

export PATH=$PATH:$HADOOP_HOME/bin



验证hadoop
命令:hadoop version

出现如下界面,证明hadoop命令的环境变量配置成功



将/exports/servers下hadoop-2.7.2目录中的内容复制到stu2和stu3上
命令:scp -r /exports/servers/ hadoop-2.7.2/ stu2:/exports/servers/

scp -r /exports/servers/ hadoop-2.7.2/ stu3:/exports/servers/

将stu上的/etc/profile文件复制到stu2和stu3中
命令:scp /etc/profile stu2:/etc/

scp /etc/profile stu3:/etc/

在stu2和stu3上分别执行命令:source /etc/profile,让环境变量立即生效

8、启动和验证hadoop集群

(1)格式化namenode(stu上执行)

命令:hadoop namenode -format





(2)启动集群(stu上执行)

将目录切换到hadoop的sbin目录下:

命令:cd /exports/servers/hadoop-2.7.2/sbin/

执行命令:./start-dfs.sh



(3)验证集群是否启动成功

命令:jps

stu:



stu2:



stu3:



(4)打开浏览器,在浏览器中输入http://192.168.80.128:50070/


免责申明:

本文系转载,版权归原作者所有,如若侵权请联系我们进行删除!

《数据治理行业实践白皮书》下载地址:https://fs80.cn/4w2atu

《数栈V6.0产品白皮书》下载地址:
https://fs80.cn/cw0iw1

想了解或咨询更多有关袋鼠云大数据产品、行业解决方案、客户案例的朋友,浏览袋鼠云官网:
https://www.dtstack.com/?src=bbs

同时,欢迎对大数据开源项目有兴趣的同学加入「袋鼠云开源框架钉钉技术群」,交流最新开源技术信息,群号码:30537511,项目地址:
https://github.com/DTStack

0条评论
社区公告
  • 大数据领域最专业的产品&技术交流社区,专注于探讨与分享大数据领域有趣又火热的信息,专业又专注的数据人园地

最新活动更多
微信扫码获取数字化转型资料
钉钉扫码加入技术交流群