hdfs常用操作命令

hdfs常用操作命令hdfs常用操作命令

大家好,又见面了,我是你们的朋友全栈君。

  先说一下”hadoop fs 和hadoop dfs的区别”,看两本Hadoop书上各有用到,但效果一样,求证与网络发现下面一解释比较中肯。

  粗略的讲,fs是个比较抽象的层面,在分布式环境中,fs就是dfs,但在本地环境中,fs是local file system,这个时候dfs就不能用。

5.1 文件操作

  1)列出HDFS文件

  此处为你展示如何通过”-ls”命令列出HDFS下的文件:

hadoop fs -ls

  执行结果如图5-1-1所示。在这里需要注意:在HDFS中未带参数的”-ls”命名没有返回任何值,它默认返回HDFS的”home“目录下的内容。在HDFS中,当前目录这样一个概念,也cd这个命令。

  hdfs常用操作命令

图5-1-1 列出HDFS文件

  2)列出HDFS目录下某个文档中的文件

  此处为你展示如何通过”-ls 文件名”命令浏览HDFS下名为”input”的文档中文件:

hadoop fs –ls input

  执行结果如图5-1-2所示。

  hdfs常用操作命令

图5-1-2 列出HDFS下名为input的文档下的文件

  3)上传文件到HDFS

  此处为你展示如何通过”-put 文件1 文件2″命令将”Master.Hadoop“机器下的”/home/hadoop“目录下的file文件上传到HDFS上并重命名test

hadoop fs –put ~/file test

  执行结果如图5-1-3所示。在执行”-put”时两种可能,即是执行成功执行失败。在上传文件时,文件首先复制到DataNode上。只有所有的DataNode都成功接收完数据,文件上传才是成功的。其他情况(如文件上传终端等)对HDFS来说都是做了无用功。

  hdfs常用操作命令

图5-1-3 成功上传file到HDFS

  4)将HDFS中文件复制本地系统

  此处为你展示如何通过”-get 文件1 文件2″命令将HDFS中的”output”文件复制到本地系统并命名为”getout”。

hadoop fs –get output getout

  执行结果如图5-1-4所示。

  hdfs常用操作命令

图5-1-4 成功将HDFS中output文件复制到本地系统

  备注:与”-put”命令一样,”-get”操作既可以操作文件,也可以操作目录

  5)删除HDFS下的文档

  此处为你展示如何通过”-rmr 文件”命令删除HDFS下名为”newoutput”的文档:

hadoop fs –rmr newoutput

  执行结果如图5-1-5所示。

  hdfs常用操作命令

图5-1-5 成功删除HDFS下的newoutput文档

  6)查看HDFS下某个文件

  此处为你展示如何通过”-cat 文件”命令查看HDFS下input文件中内容:

hadoop fs -cat input/*

  执行结果如图5-1-6所示。

  hdfs常用操作命令

图5-1-6 HDFS下input文件的内容

  ”hadoop fs”的命令远不止这些,本小节介绍的命令已可以在HDFS上完成大多数常规操作。对于其他操作,可以通过”-help commandName”命令所列出的清单来进一步学习与探索。

5.2 管理与更新

  1)报告HDFS的基本统计情况

  此处为你展示通过”-report”命令如何查看HDFS的基本统计信息:

hadoop dfsadmin -report

  执行结果如图5-2-1所示。

  hdfs常用操作命令

图5-2-1 HDFS基本统计信息

  2)退出安全模式

  NameNode在启动时自动进入安全模式。安全模式是NameNode的一种状态,在这个阶段,文件系统不允许有任何修改。安全模式的目的是在系统启动时检查各个DataNode上数据块的有效性,同时根据策略对数据块进行必要的复制删除,当数据块最小百分比数满足的最小副本数条件时,会自动退出安全模式。

  系统显示”Name node is in safe mode”,说明系统正处于安全模式,这时只需要等待17秒即可,也可以通过下面的命令退出安全模式:

hadoop dfsadmin –safemode enter

  成功退出安全模式结果如图5-2-2所示。

  hdfs常用操作命令

图5-2-2 成功退出安全模式

  3)进入安全模式

  在必要情况下,可以通过以下命令把HDFS置于安全模式:

hadoop dfsadmin –safemode enter

  执行结果如图5-2-3所示。

  hdfs常用操作命令

图5-2-3 进入HDFS安全模式

  4)添加节点

  可扩展性是HDFS的一个重要特性,向HDFS集群中添加节点是很容易实现的。添加一个新的DataNode节点,首先在新加节点上安装好Hadoop,要和NameNode使用相同的配置(可以直接从NameNode复制),修改”/usr/hadoop/conf/master“文件,加入NameNode主机名。然后在NameNode节点上修改”/usr/hadoop/conf/slaves“文件,加入新节点主机名,再建立到新加点无密码的SSH连接,运行启动命令:

start-all.sh

  5)负载均衡

  HDFS的数据在各个DataNode中的分布肯能很不均匀,尤其是在DataNode节点出现故障新增DataNode节点时。新增数据块时NameNode对DataNode节点的选择策略也有可能导致数据块分布的不均匀。用户可以使用命令重新平衡DataNode上的数据块的分布:

start-balancer.sh

  执行命令前,DataNode节点上数据分布情况如图5-2-4所示。

  hdfs常用操作命令

  负载均衡完毕后,DataNode节点上数据的分布情况如图5-2-5所示。

  hdfs常用操作命令

  执行负载均衡命令如图5-2-6所示。

  hdfs常用操作命令

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/106121.html原文链接:https://javaforall.net

(0)
上一篇 2022年4月23日 下午7:00
下一篇 2022年4月23日 下午7:00


相关推荐

  • VB中CopyMemory函数

    VB中CopyMemory函数vb 中 copymemory 函数的使用挺耐人寻味的 copymemory 的使用说明资料书上就一句 该函数用于将一块内存的数据从一个位置复制到另一个位置 其参数数据类型 destinationa sourceasany 尽管是 any 型可理解成任一类型但是我看很多地方都说参数是指针类型的 因此起初我很不解 既然是指针型的参数我们往往直接将变量传递过去而不是变量的地址传递过去不是非法的吗

    2026年3月17日
    2
  • 2021pycharm激活码(JetBrains全家桶)「建议收藏」

    (2021pycharm激活码)本文适用于JetBrains家族所有ide,包括IntelliJidea,phpstorm,webstorm,pycharm,datagrip等。https://javaforall.net/100143.htmlIntelliJ2021最新激活注册码,破解教程可免费永久激活,亲测有效,上面是详细链接哦~M…

    2022年3月21日
    276
  • 目标检测的图像特征提取之(三)Haar特征

    目标检测的图像特征提取之(三)Haar特征目标检测的图像特征提取之(三)Haar特征zouxy09@qq.com1、Haar-like特征      Haar-like特征最早是由Papageorgiou等应用于人脸表示,Viola和Jones在此基础上,使用3种类型4种形式的特征。Haar特征分为三类:边缘特征、线性特征、中心特征和对角线特征,组合成特征模板。特征模板内有白色和黑色两种矩形,并定义该模板的特征值为白色矩

    2022年4月20日
    53
  • linux中zip的压缩,Linux中zip压缩和unzip解压缩命令详解

    linux中zip的压缩,Linux中zip压缩和unzip解压缩命令详解文章转自 http www jb51 net LINUXjishu 105916 html1 把 home 目录下面的 mydata 目录压缩为 mydata zipzip rmydata zipmydata 压缩 mydata 目录 2 把 home 目录下面的 mydata zip 解压到 mydatabak 目录里面 unzipmydata zip dmydatabak3 把 home 目录下面的 ab

    2026年3月26日
    2
  • 你使用什么开发框架构建AI Agent/智能体/代理?

    你使用什么开发框架构建AI Agent/智能体/代理?

    2026年3月16日
    2
  • oracle数据库外包,Oracle两地三中心「建议收藏」

    oracle数据库外包,Oracle两地三中心「建议收藏」①为使云平台生产中心与市委生产中心能够互相访问同样的数据内容,采用云平台2个节点+市委2个节点共4个节点的RAC集群;②建设两地三中心(同城与异地的业务中心、容灾中心)的数据库与应用容灾的解决方案,需要搭建一套4节点(云平台2个节点+市委2个节点)RAC+云平台2个节点RAC的容灾数据库;③为了让容灾数据库服务器能快速与容灾应用服务器接管业务需要搭建一套RAC+RAC的容灾数据库。此数据库使…

    2022年6月15日
    22

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号