博客 Hadoop伪分布式配置教程-2

Hadoop伪分布式配置教程-2

   数栈君   发表于 2023-10-11 15:39  180  0

四、安装 Hadoop
1.下载Hadoop
使用Ubuntu系统内置的Firefix浏览器下载Hadoop-3.2.4

Hadoop下载地址:Index of /apache/hadoop/common/hadoop-3.2.4



2.安装Hadoop
输入以下代码:(注意C要大写)

sudo tar -zxf ~/下载/hadoop-3.2.4.tar.gz -C /usr/local
将Hadoop解压安装到/usr/local文件夹内

输入以下代码:

cd /usr/local/
sudo mv ./hadoop-3.2.4/ ./hadoop # 将文件夹名改为hadoop
sudo chown -R hadoop ./hadoop
并将文件夹名改为hadoop,和修改文件权限

输入如下命令来检查 Hadoop 是否可用,成功则会显示 Hadoop 版本信息:

cd /usr/local/hadoop
./bin/hadoop version


五、Hadoop单机配置(非分布式)
Grep 例子

将 input 文件夹中的所有文件作为输入,筛选当中符合正则表达式 dfs[a-z.]+ 的单词并统计出现的次数,最后输出结果到 output 文件夹中

cd /usr/local/hadoop
mkdir ./input
cp ./etc/hadoop/*.xml ./input
./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep ./input ./output 'dfs[a-z.]+'
cat ./output/*




Hadoop 默认不会覆盖结果文件,因此再次运行上面实例会提示出错,需要先将 ./output 删除。

rm -r ./output
六、Hadoop伪分布式配置
Hadoop 的配置文件位于 /usr/local/hadoop/etc/hadoop/ 中,伪分布式需要修改2个配置文件 core-site.xml 和 hdfs-site.xml 。Hadoop的配置文件是 xml 格式,每个配置以声明 property 的 name 和 value 的方式来实现。

修改配置文件 core-site.xml

cd /usr/local/hadoop
gedit ./etc/hadoop/core-site.xml
修改为以下配置,点击保存后退出:

<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/local/hadoop/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>


修改配置文件 hdfs-site.xml

gedit ./etc/hadoop/hdfs-site.xml
修改为以下配置,点击保存后退出:

<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/data</value>
</property>
</configuration>


配置完成后,执行 NameNode 的格式化:

./bin/hdfs namenode -format


接着开启 NameNode 和 DataNode 守护进程

./sbin/start-dfs.sh


启动完成后,可以通过命令jps来判断是否成功启动

jps


成功启动后,可以访问 Web 界面 http://localhost:9870 查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件



七、运行Hadoop伪分布式实例
要使用 HDFS,首先需要在 HDFS 中创建用户目录:

cd /usr/local/hadoop
./bin/hdfs dfs -mkdir -p /user/hadoop


接着将 ./etc/hadoop 中的 xml 文件作为输入文件复制到分布式文件系统中,即将 /usr/local/hadoop/etc/hadoop 复制到分布式文件系统中的 /user/hadoop/input 中

./bin/hdfs dfs -mkdir input
./bin/hdfs dfs -put ./etc/hadoop/*.xml input
复制完成后,可以通过如下命令查看文件列表:

./bin/hdfs dfs -ls input


将 input 文件夹中的所有文件作为输入,筛选当中符合正则表达式 dfs[a-z.]+ 的单词并统计出现的次数,最后输出结果到 output 文件夹中

./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep input output 'dfs[a-z.]+'


查看运行结果的命令(查看的是位于 HDFS 中的输出结果):

./bin/hdfs dfs -cat output/*


将运行结果取回到本地:

rm -r ./output
./bin/hdfs dfs -get output ./output
cat ./output/*
Hadoop 运行程序时,输出目录不能存在,否则会提示错误

因此若要再次执行,需要执行如下命令删除 output 文件夹:

./bin/hdfs dfs -rm -r output
若要关闭 Hadoop,则运行:

./sbin/stop-dfs.sh

免责申明:


本文系转载,版权归原作者所有,如若侵权请联系我们进行删除!

《数据治理行业实践白皮书》下载地址:https://fs80.cn/4w2atu

《数栈V6.0产品白皮书》下载地址:
https://fs80.cn/cw0iw1

想了解或咨询更多有关袋鼠云大数据产品、行业解决方案、客户案例的朋友,浏览袋鼠云官网:
https://www.dtstack.com/?src=bbs

同时,欢迎对大数据开源项目有兴趣的同学加入「袋鼠云开源框架钉钉技术群」,交流最新开源技术信息,群号码:30537511,项目地址:
https://github.com/DTStack

0条评论
社区公告
  • 大数据领域最专业的产品&技术交流社区,专注于探讨与分享大数据领域有趣又火热的信息,专业又专注的数据人园地

最新活动更多
微信扫码获取数字化转型资料
钉钉扫码加入技术交流群