博客 大数据:HDFS的Shell常用命令操作

大数据:HDFS的Shell常用命令操作

   数栈君   发表于 2023-06-07 10:51  199  0

一 HDFS的Shell介绍
HDFS允许用户数据组织成文件和文件夹的方式,它提供一个叫DFSShell的接口,使用户可以和HDFS中的数据交互。命令集的语法跟其他用户熟悉的shells(bash,csh)相似。

Shell在计算机科学中俗称“壳”,是提供给使用者使用界面的进行与系统交互的软件,通过接收用户输入的命令执行相应的操作,Shell分为图形界面Shell和命令行式Shell。

文件系统(FS)Shell包含了各种的类Shell的命令,可以直接与Hadoop分布式文件系统以及其他文件系统进行交互。

三种Shell命令方式
命令 适用场合
hadoop fs 适用于任何不同的文件系统,比如本地文件系统和HDFS文件系统
hadoop dfs 只能适用于HDFS文件系统
hdfs dfs hdfs dfs跟hadoop dfs的命令作用一样,也只能适用于HDFS文件系统
二 HDFS常用命令操作
启动hadoop集群
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/802282eddb1fefcdaf50289cd2b80c3d..png


01 创建目录
(1)创建单层目录
输入命令:hdfs dfs -mkdir /ied

http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/6481c48e3d305a240de70b2c2604787c..png

在Hadoop WebUI查看创建的目录
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/c598e98403adeded64843f095999d134..png


(3)创建多层目录
输入命令:hdfs dfs -mkdir /love/books,会报错,因为/love目录不存在
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/81f6d05427f9a4ca61cabb439404ba7c..png

这里可以先创建 /luzhou 目录,然后在里面再创建 lzy 子目录,但是想要一步到位,就只需要一个 -p 参数即可。

输入命令:hdfs dfs -mkdir -p /luzhou/lzy
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/0d6a9e07e1b7a1057b3e36f5a4449da6..png

在Hadoop WebUI查看创建的多层目录
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/43a5cf50bc91eb68a215e90d92e8f6a4..png


02 查看目录
输入命令:hdfs dfs -ls /,查看根目录(可以在任何节点上查看,结果均一样)。

http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/4c2af66e51f3711e67626d6ae2131061..png

http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/75937e1dc1cc592ecae78ab2434939fa..png


输入命令:hdfs dfs -ls /love
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/5d75b2bf1846406db3dfa32011d67643..png


注:如果我们要查看根目录里全部的资源,那么要用到递归参数-R(必须大写)。

执行命令:hdfs dfs -ls -R /,递归查看/目录(采用递归算法遍历树结构)
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/36ce2aa46d52848308f73dbaa4064380..png


03 上传本地文件到HDFS
创建一个本地目录:/document/txt,输入命令:mkdir -p /document/txt
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/8b7507f8443d7522b7bbfe2161c868ce..png

在/txt目录下创建一个test.txt文件,输入命令(>:重定向命令):echo "hello hadoop world" > /document/txt/test.txt
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/fe8485b940d3e222789a3e74def29f29..png

查看test.txt文件内容,输入命令:cat /document/txt/test.txt

http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/9adc18f421683eb8a979ab2cf40f9dbc..png

上传test.txt文件到HDFS的/ied目录,输入命令:hdfs dfs -put /document/txt/test.txt /ied

http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/27890c865ca3519871e5b8001ad42b8d..png

在Hadoop WebUI界面查看是否上传成功
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/689853e6573f2f9af4b401b6e121e1b7..png


04 查看文件内容
输入命令:hdfs dfs -cat /ied/test.txt
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/176a3ed71842cee30dc27a4139aeea91..png


05 下载HDFS文件到本地
1.删除本地的 /document/txt/ 目录下的 test.txt 文件,输入命令:rm -rf /document/txt/test.txt
2.下载HDFS文件系统的 /ied/test.txt 到本地当前目录不改名,输入命令:hdfs dfs -get /ied/test.txt /document/txt/
3.检查是否下载成功,输入命令:ll /document/txt/test.txt
可以将HDFS上的文件下载到本地指定位置,并且可以更改文件名,输入命令:hdfs dfs -get /ied/test.txt /document/txt/exam.txt

检查是否下载成功,输入命令:ll /document/txt/exam.txt


06 删除HDFS文件
输入命令:hdfs dfs -rm /ied/test.txt

检查是否删除成功,输入命令:hdfs dfs -ls /ied/test.txt

使用通配符,可以删除满足一定特征的文件

http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/6194a1a974bb6d89659e131df836422d..png
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/7e0fc1e9434b422fcf2facea81455e0f..png

http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/51af2d7e1c409e3d1322bab8380306e8..png



07 删除HDFS目录
输入命令:hdfs dfs -rmdir /yibin

输入命令:hdfs dfs -rmdir /love


提示: -rmdir 命令删除不了非空目录。
要递归删除才能删除非空目录:hdfs dfs -rm -r /love(-r:recursive)



08 移动目录或文件
-mv 命令兼有移动与改名的双重功能
将 /ied 目录更名为 /ied01,输入命令:hdfs dfs -mv /ied /ied01


在Hadoop WebUI查看是否更名成功

http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/dcd60932ab1607b7ba98baf8b929402f..png

将/ied01/exam.txt更名为/ied01/test.txt,输入命令:hdfs dfs -mv /ied01/exam.txt /ied01/test.txt
查看改名后的test.txt文件内容,输入命令:hdfs dfs -cat /ied01/test.txt
创建/ied02目录,将ied01/test.txt移动到/ied02目录,并且改名为exam.txt
创建ied02目录,输入命令:hdfs dfs -mkdir /ied02


移动改名,输入命令:hdfs dfs -mv /ied01/test.txt /ied02/exam.txt
在Hadoop WebUI界面查看

http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/7c631f83be4d8c6170e73a644e377b40..png
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/3d2661a6486000d9437d50d20b97d9c2..png


09 文件合并下载
在/document/txt/目录下创建sport.txt、music.txt和book.txt并上传

在Hadoop WebUI界面查看上传的三个文件,注意文件名是按字典排序了的

http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/40b592e17d671a5edf6211ef6b79df6d..png

合并/ied01目录的文件下载到/document/txt目录的merger.txt,输入命令:hdfs dfs -getmerge /ied01/* /document/txt/merger.txt

查看本地的merger.txt,看是不是三个文件合并后的内容,输入命令:cat /document/txt/merger.txt

由上图可知,merger.txt是book.txt、music.txt与sport.txt合并后的结果

10 检查文件信息
fsck: file system check —— 文件系统检查

检查/ied01/book.txt文件,输入命令:hdfs fsck /ied01/book.txt -files -blocks -locations -racks
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/b78389a82e0098db652be7653e87911f..png
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/555f55862fcce15cb6f1d921a4d5e390..png

已知HDFS里一个文件块是128MB,上传一个大于128MB的文件,hadoop-3.3.4.tar.gz大约663.24MB

http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/376679e1344ff4c6d17db68a387cbf85..png

128MB×5=640MB<663.24MB<768MB=128MB×6 ,HDFS会将hadoop-3.3.4.tar.gz分割成6块

输入命令:hdfs dfs -put /opt/hadoop-3.3.4.tar.gz /ied01,将hadoop压缩包上传到HDFS的/ied01目录

查看HDFS上hadoop-3.3.4.tar.gz文件信息,输入命令:hdfs fsck /ied01/hadoop-3.3.4.tar.gz -files -locations -racks
在Hadoop WebUI来查看文件块信息更加方便,总共有6个文件块:Block0、Block1、Block2、Block3、Block4、Block5

http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/51bec7b0ca300254b4516925f7613994..png

第1个文件块信息
第6个文件块信息
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/c8988ba836e067c4bbb66682c8d1ebc4..png

http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/4ca6d4d307af46d36724ad152f1b4fc8..png


11 创建时间戳文件
在/ied01目录里创建一个文件sunshine.txt,执行命令:hdfs dfs -touchz /ied01/sunshine.txt
在Hadoop WebUI来查看到创建的是一个空文件,大小为0字节
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/360612b20a026d46d9cb1c0cb72636b2..png

这种空文件,一般用作标识文件,也可叫做时间戳文件,再次在/ied01目录下创建sunshine.txt同名文件


说明:如果touchz命令的路径指定的文件不存在,那就创建一个空文件;如果指定的文件存在,那就改变该文件的时间戳。

12 复制文件或目录
cp: copy - 拷贝或复制

(1)同名复制文件
将/ied01/music.txt复制到/ied02里,输入命令:hdfs dfs -cp /ied01/music.txt /ied02
查看拷贝生成的文件


(2)改名复制文件
将/ied01/book.txt复制到/ied02目录,改名为read.txt,输入命令:hdfs dfs -cp /ied01/book.txt /ied02/read.txt
查看拷贝后的文件内容,输入命令:hdfs dfs -cat /ied02/read.txt


源文件book.txt依然存在


(3)复制目录
将/ied01目录复制到/ied03目录,输入命令:hdfs dfs -cp /ied01 /ied03

查看拷贝后的/ied03目录,输入命令:hdsf dfs -ls /ied03, 其内容跟/ied01完全相同

13 查看文件大小
du: disk usage
输入命令:hdfs dfs -du /ied01/book.txt

可以看到文件/ied01/book.txt大小是12个字符,包含9个字母、2个空格和一个看不见的结束符

14 上传文件
-copyFromLocal类似于-put,输入命令:hdfs dfs -copyFromLocal merger.txt /ied02

查看是否上传成功,输入命令:hdfs dfs -ls /ied02


15 下载文件
-copyToLocal类似于-get,执行命令:hdfs dfs -copyToLocal /ied01/sunshine.txt /document/txt/sunlight.txt
查看是否下载成功,输入命令:ll /document/txt/


16 查看某目录下文件个数
输入命令:hdfs dfs -count /ied01
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/d697ff357e82846e16fe69d1a03227a1..png


17 检查hadoop本地库
输入命令:hadoop checknative -a
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/cd80ac08b19bf890fef299dc7ae20579..png

查看hadoop本地库文件
查看hadoop本地库文件


18 进入和退出安全模式
(1)进入安全模式
输入命令:hdfs dfsadmin -safemode enter,

注意:进入安全模式之后,只能读不能写



此时,如果要创建目录,就会报错


(2)退出安全模式
输入命令:hdfs dfsadmin -safemode leave
此时,创建目录/ied04就没有任何问题
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user1/article/44aa50db4f6e462b3babad83118e58b5..png


  • 免责申明:

    本文系转载,版权归原作者所有,如若侵权请联系我们进行删除!

  • 《数据治理行业实践白皮书》下载地址:https://fs80.cn/4w2atu


  • 《数栈V6.0产品白皮书》下载地址:https://fs80.cn/cw0iw1

  • 想了解或咨询更多有关袋鼠云大数据产品、行业解决方案、客户案例的朋友,浏览袋鼠云官网:https://www.dtstack.com/?src=bbs

    同时,欢迎对大数据开源项目有兴趣的同学加入「袋鼠云开源框架钉钉技术群」,交流最新开源技术信息,群号码:30537511,项目地址:
    https://github.com/DTStack

0条评论
社区公告
  • 大数据领域最专业的产品&技术交流社区,专注于探讨与分享大数据领域有趣又火热的信息,专业又专注的数据人园地

最新活动更多
微信扫码获取数字化转型资料
钉钉扫码加入技术交流群