Hadoop Shell基本操作(大章鱼版)

任务目标

1.熟练掌握常用的hadoop shell命令

相关知识

调用文件系统(FS)Shell命令应使用 hadoop fs 的形式。 所有的的FS shell命令使用URI路径作为参数。URI格式是scheme://authority/path。对HDFS文件系统,scheme是hdfs,对本地文件系统,scheme是file。其中scheme和authority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme。一个HDFS文件或目录比如/parent/child可以表示成hdfs://namenode:namenodeport/parent/child,或者更简单的/parent/child(假设你配置文件中的默认值是namenode:namenodeport)。大多数FS Shell命令的行为和对应的Unix Shell命令类似,出错信息会输出到stderr,其他信息输出到stdout。

任务内容

1.学习在开启、关闭Hadoop
2.学习在Hadoop中创建、修改、查看、删除文件夹及文件
3.学习改变文件的权限及文件的拥有者
4.学习使用shell命令提交job任务
5.Hadoop安全模式的进入与退出

任务步骤

1.打开终端模拟器,切换到/apps/hadoop/sbin目录下,启动Hadoop(使用自己安装的目录即可)

1.	cd /apps/hadoop/sbin  
2.	./start-all.sh  

除了直接执行start-all.sh外,还可以分步启动start-dfs.sh和start-yarn.sh。
2.执行jps,检查一下Hadoop相关进程是否启动

1.	jps  

3.在/目录下创建一个test1文件夹(hadoop fs也可用hdfs dfs替换)

1.	hadoop fs -mkdir /test1  

4.在Hadoop中的test1文件夹中创建一个file.txt文件

1.	hadoop fs -touchz /test1/file.txt  

5.查看根目录下所有文件

1.	hadoop fs -ls /  

6.还可以使用ls -R的方式递归查看根下所有文件

1.	hadoop fs -ls -R /  


7.将Hadoop根下test1目录中的file.txt文件,移动到根下并重命名为file2.txt

1.	hadoop fs -mv /test1/file.txt /file2.txt  

Hadoop中的mv用法同Linux中的一样,都可以起到移动文件和重命名的作用。
8.将Hadoop根下的file2.txt文件复制到test1目录下

1.	hadoop fs -cp /file2.txt /test1  

9.在Linux本地/data目录下,创建一个data.txt文件,并向其中写入hello hadoop!(若不存在data目录则新建该目录)

1.	cd /data  
2.	touch data.txt  
3.	echo hello hadoop! >> data.txt  

10.将Linux本地/data目录下的data.txt文件,上传到HDFS中的/test1目录下

1.	hadoop fs -put /data/data.txt /test1  

11.查看Hadoop中/test1目录下的data.txt文件

1.	hadoop fs -cat /test1/data.txt  

12.除此之外还可以使用tail方法

1.	hadoop fs -tail /test1/data.txt  

tail方法是将文件尾部1K字节的内容输出。支持-f选项,行为和Unix中一致。
13.查看Hadoop中/test1目录下的data.txt文件大小

1.	hadoop fs -du -s /test1/data.txt  

-du 后面可以不加-s,直接写目录表示查看该目录下所有文件大小
14.text方法可以将源文件输出为文本格式。允许的格式是zip和TextRecordInputStream。

1.	hadoop fs -text /test1/data.txt  

15.stat方法可以返回指定路径的统计信息,有多个参数可选,当使用-stat选项但不指定format时候,只打印文件创建日期,相当于%y

1.	hadoop fs -stat /test1/data.txt  

下面列出了format的形式:
%b:打印文件大小(目录为0)
%n:打印文件名
%o:打印block size (我们要的值)
%r:打印备份数
%y:打印UTC日期 yyyy-MM-dd HH:mm:ss
%Y:打印自1970年1月1日以来的UTC微秒数
%F:目录打印directory, 文件打印regular file
16.将Hadoop中/test1目录下的data.txt文件,下载到Linux本地/apps目录中(若目录不存在则新建该目录)

1.	hadoop fs -get /test1/data.txt /apps  

17.查看一下/apps目录下是否存在data.txt文件

1.	ls /apps  

18.使用chown方法,改变Hadoop中/test1目录中的data.txt文件拥有者为root,使用-R将使改变在目录结构下递归进行。

1.	hadoop fs -chown root /test1/data.txt  

19.使用chmod方法,赋予Hadoop中/test1目录中的data.txt文件777权限

1.	hadoop fs -chmod 777 /test1/data.txt  

20.删除Hadoop根下的file2.txt文件

1.	hadoop fs -rm /file2.txt  

21.删除Hadoop根下的test1目录

1.	hadoop fs -rm -r /test1  

22.当在Hadoop中设置了回收站功能时,删除的文件会保留在回收站中,可以使用expunge方法清空回收站。

1.	hadoop fs -expunge  

在分布式文件系统启动的时候,开始的时候会有安全模式,当分布式文件系统处于安全模式的情况下,文件系统中的内容不允许修改也不允许删除,直到安全模式结束。安全模式主要是为了系统启动的时候检查各个DataNode上数据块的有效性,同时根据策略必要的复制或者删除部分数据块。运行期通过命令也可以进入安全模式。在实践过程中,系统启动的时候去修改和删除文件也会有安全模式不允许修改的出错提示,只需要等待一会儿即可。
23.使用Shell命令执行Hadoop自带的WordCount
首先切换到/data目录下,使用vim编辑一个data.txt文件,内容为:hello world hello hadoop hello ipieuvre

1.	cd /data  
2.	vim data.txt  

在HDFS的根下创建in目录,并将/data下的data.txt文件上传到HDFS中的in目录

1.	hadoop fs -put /data/data.txt /in  

执行hadoop jar命令,在hadoop的/apps/hadoop/share/hadoop/mapreduce路径下存在hadoop-mapreduce-examples-2.6.0-cdh5.4.5.jar包,我们执行其中的worldcount类,数据来源为HDFS的/in目录,数据输出到HDFS的/out目录

1.	hadoop jar /apps/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0-cdh5.4.5.jar wordcount /in /out  

查看HDFS中的/out目录

1.	hadoop fs -ls /out  
2.	hadoop fs -cat /out/* 

24.进入Hadoop安全模式

1.	hdfs dfsadmin -safemode enter  

25.退出Hadoop安全模式

1.	hdfs dfsadmin -safemode leave  
 


26.切换到/apps/hadoop/sbin目录下,关闭Hadoop

1.	cd /apps/hadoop/sbin  
2.	./stop-all.sh  
 

全部评论

相关推荐

2025-11-26 11:21
已编辑
武汉理工大学 Java
个人bg: 211本,一段京东实习,一段xhs实习,一段小厂实习。互联网只有美团一个带薪意向。转正失败情况:京东实习了四个月,感觉收获比较少,做的事情偏基础,第三个月底答辩,离职后两个月被告知转正失败。对此我只能说,零售卡硕。xhs实习两个月,反而感觉收获更多,被安排了有挑战的事情,大模型在业务场景中的运用,最后一个星期通知有转正机会,边做需求边匆忙准备,答辩采取一票否决制,四个领导三过一否,也失败。(早知道xhs今年开这么高我就熬夜赶材料了)不过在这个过程中,也push自己了解了一定rag mcp 大模型的相关知识,对于后续面阿里和美团很有帮助。个人基础情况:hot100能默写。去年12底学完jvm juc。2月入职京东前小林coding guide就差不多看完了。后面实习的时候也有继续补面筋,场景题。秋招情况:8月初就投了,也不晚。滴滴: 笔试a了没面,可能投的岗位太小众了?(抱着拿了也不去 用于a价的想法)一直卡着。携程: 不发笔。发官方邮件也不回。京东:笔试挂了。嗯,很耻辱,那天在外面玩但确实很久没复习笔试考试范围了,全忘光了。腾讯:从来没约过,可能暑期面了十几次面太多了。阿里控股:一面挂。阿里国际:hr面后一个月挂。字节:国际电商三面挂->星图一面挂(面的时候已经有很多候选人了)-> 安全风控二面挂(业务不是很好,面试过程说漏嘴说业务会影响我选择,场景题没答好)-> 中台一面后无消息快手:二面挂。xhs:hr面后无消息,排序应该很靠后。虾皮:hr面两个月无消息,应该还在泡池子。百度:一面挂。pdd:笔试a3后笔试挂。难绷。个人反思总结:for 后来者。1. 笔试一定要把握好,虽然面试中都是hot100,有些甚至不考面试题,但是大厂笔试题是有acm难度的,挂了就是挂了,很多没有第二次机会,约面也没机会了。建议时间充裕情况下,还是要把灵神的题单多刷点。顺序可以参考:代码随想录视频+题 -> 灵神视频+题 ->hot100 ->灵神题单(可以每个part挑难度低的前几道写)2. 一段深入长的实习经历一定是大于两段短的,不过现在再让我选到底是继续在jd还是去xhs我还是选不出来。在面试的过程中,有些面试官也会认为我实习的太浅,没有做什么有深度的事情,对多种方案的调研不全面。如果实习做的事情比较有挑战最好,如果没有,也要尽量往多种方案调研最后选择了哪个方案,达到了当初定的业务指标/技术指标方面包装。3. 还是得早投。身边除了bg特别好的朋友,投的晚的无一例外秋招情况会差很多。8月前投能赶上提前批。最晚不要8月中旬过了还没投完。有投的早的没有实习的朋友秋招结果也可以。没有面试的同学一定要尝试官网,boss直聘多种途径投。4. 对于有实习的同学,基础没有那么重要了,更多还是专注于对实习的考察,可以以金字塔的形式进行论述,避免在最开始的时候就展开大量细节。如果实在没有实习,bg够硬,投的够早也会有面,只需要一个比较深入的项目应该就没问题,把项目当作自己在实习要投入生产的心态去调研包装。5. 有的时候真的看运气。即使是同一个部门甚至是同一个组的同学,做的事情也会有差异,这主要看导师被分配到什么样的活。for me:大二的时候绩点排名前10%,但还是决定放弃保研,开始学java,这一路走来,经历迷茫踏实的反复,也想和自己说句幸苦了,谁想得到当初给自己定的目标是有份工作不饿死就行。可能差点运气,可能在关键节点上做的还是不够,对于实习的包装,对于面试表现还是差点。会后悔自己没读研吗?其实我也有考雅思,申请了港大计算机,但估计大概率还是工作(实则也没港大offer)。人不能既要又要还要,我不能既要早点工作赚钱,实现我财富自由支配,带不舍得花钱的家人去旅游的想法,又要长期来看高学历晋升的优势,还要在大环境变差一届比一届卷我也能找到差强人意的工作。所以,至少现在,我不后悔。如果我更倾向于国企而不是互联网,比起技术挑战更偏爱稳定的生活我大概率会读研。如果我本科没有211,我还想进大厂,我也大概率会读研。会后悔自己没选其他的方向吗?java确实相对卷一点,但也只是相对的,因为其他方向的人也很多,并不是换方向就一定会更好。计算机这一行本就短命,能干到35就算成功,大家都是为了赚钱,基于此,在背景没那么硬时,选择一个相对人少的方向进大厂是对的。看自己怎么理解了。最好的还是参考直系学长学姐的选择,一定要多沟通交流。一些安慰自己的话,秋招是人生的起点,不一定是高费阵容才能吃鸡,低费阵容早点发育也有吃鸡的上限。(随便乱说的)。最后还想再写一段话给学妹们,程序员这一行,女生确实会相对少一点,但比起传统工科非常直接的偏向男生,计算机这一行认为菜是原罪,性别的因素会少很多,更多看个人技术和水平。在京东实习的时候,我的小组长在我进去第一天就和我说,我们部门女生虽然少,但是水平都至少是中上的,都很能吃苦很能干。无论是我们组干活巨快的A姐,还是总能很快解答我问题的B姐,又或者是其他总能给我提供建议的其他姐姐们,都使我对这一点坚信不疑,她们高学历,专业,细心,耐心。如果你也热爱技术,虽然有时会被bug折磨,但喜欢学到知识时候的踏实,喜欢bug fix的爽感,你就是适合这一行的。我的秋招结束了,但我大概率不会甘心,还是会想试试春招,但我也真的觉得到现在这一步已经很棒了。欢迎同校学妹学弟们找我沟通交流~
疲倦的牛马还在上班:再冲一次,春招不留遗憾吧!
我的秋招日记
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务