完全分布式搭建HDFS分布式文件存储系统

完全分布式搭建HDFS分布式文件存储系统三分钟上手,完全分布式搭建HDFS文章目录三分钟上手,完全分布式搭建HDFS一,环境的准备二,开始安装及相关配置文件2.1下载解压缩hadoop2.2配置etc/hadoop/hadoop-env.sh2.3配置core-site.xml2.4hdfs-site.xml配置2.5写上**SNN**节点名:node022.6配置datanode存放服务器2.7分发节点…

大家好,又见面了,我是你们的朋友全栈君。

三分钟上手,完全分布式搭建HDFS

一,环境的准备

Linux (观看Linux安装及常用指令)

JDK(观看Linux安装jdk文档)

准备至少3台机器(通过克隆虚拟机;配置好网络JDK 时间 hosts,保证节点间能互ping通)

时间同步

ssh免密钥登陆(两两互通免密钥)

二,开始安装及相关配置文件

我这边三个节点分别为 : node01 node02 node03

node01 上面部署 namenode 和 datanode

node02 上面部署 secondaryNameNode 和 datanode

node03 上面部署 datanode

2.1 下载解压缩 hadoop

在这里插入图片描述
完全分布式搭建HDFS分布式文件存储系统

2.2 配置etc/hadoop/hadoop-env.sh

在这里插入图片描述
完全分布式搭建HDFS分布式文件存储系统

export JAVA_HOME= “你的Jdk安装目录” 如图
在这里插入图片描述
完全分布式搭建HDFS分布式文件存储系统

2.3 配置core-site.xml

在这里插入图片描述
完全分布式搭建HDFS分布式文件存储系统

配置解释:

<configuration>
    <property>
        //配置namenode所在的服务器
        <name>fs.defaultFS</name>
        <value>hdfs://node01:9000</value>
    </property>
    <property>
        //hadoop.tmp.dir  是hadoop文件系统依赖的基础配置,很多路径都依赖它。如果hdfs-site.xml中不配 置namenode和datanode的存放位置,默认就放在这个路径中
        <name>hadoop.tmp.dir</name>
        <value>/opt/hadoop-2.6.5</value>
    </property>
</configuration>

2.4 hdfs-site.xml配置

在这里插入图片描述
完全分布式搭建HDFS分布式文件存储系统

配置解释:

<configuration>
  	<property>
      //block保存的副本数量,不配置默认是3 我这边是没配置
      <name>dfs.replication</name>
      <value>1</value>
 	</property>
 	<property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>node02:50090</value>
    </property>
	<property>
        <name>dfs.namenode.secondary.https-address</name>
        <value>node02:50091</value>
    </property>
</configuration>

2.5 写上SNN节点名: node02

在/home/hadoop-2.6.5/etc/hadoop/新建masters文件
在这里插入图片描述
完全分布式搭建HDFS分布式文件存储系统

2.6 配置datanode存放服务器

在 slaves 中配置
在这里插入图片描述
完全分布式搭建HDFS分布式文件存储系统

注意:每行写一个 写成3行

2.7 分发节点

直接把压缩好的 hadoop 发送到node02 node03 节点上
在这里插入图片描述
完全分布式搭建HDFS分布式文件存储系统

2.8 配置 Hadoop的环境变量

vi ~/.bash_profile

在这里插入图片描述
完全分布式搭建HDFS分布式文件存储系统

2.9 命令: source ~/.bash_profile

不然你的环境变量不会生效

2.10 格式化 NameNode –> 第一次需要

hdfs  namenode -format

2.11 关闭防火墙

service  iptables  stop

2.12 启动 HDFS

start-dfs.sh
[root@node01 home]# start-dfs.sh
    Starting namenodes on [node01]
    node01: starting namenode, logging to /home/hadoop-2.6.5/logs/hadoop-root-namenode-node01.out
    node03: starting datanode, logging to /home/hadoop-2.6.5/logs/hadoop-root-datanode-node03.out
    node02: starting datanode, logging to /home/hadoop-2.6.5/logs/hadoop-root-datanode-node02.out
    node01: starting datanode, logging to /home/hadoop-2.6.5/logs/hadoop-root-datanode-node01.out
    Starting secondary namenodes [node02]
    node02: starting secondarynamenode, logging to /home/hadoop-2.6.5/logs/hadoop-root-secondarynamenode-node02.out

先启动 namenode,再启动 datanode ,最后是 secondaryNameNode

浏览器输入 node01:50070(前提是你在windows配置了 hosts),出现下面界面说明成功
在这里插入图片描述
完全分布式搭建HDFS分布式文件存储系统

2.13 查看 jps进程

node01:

[root@node01 home]# jps
3617 DataNode
3529 NameNode
3839 Jps
[root@node01 home]# 

node02:

[root@node02 hadoop]# jps
2344 Jps
2296 SecondaryNameNode
2205 DataNode
[root@node02 hadoop]# 

node03:

[root@node03 subdir0]# jps
1923 Jps
1854 DataNode
[root@node03 subdir0]# 

说明你的分布式HDFS搭建成功!!!

三,常用hdfs dfs 命令

3.1 查看hdfs指定目录下的文件

hdfs  dfs  -ls  路径

3.2 创建文件夹

hdfs  dfs -mkdir /data  ##创建一个名为data的文件夹

3.3 删除文件夹

hdfs  dfs  -rm -r  /data  ##删除在根目录下 名为 data的文件夹

3.4 上传文件到hdfs

hdfs dfs -put 文件路径和名称 /data —>上传文件到hdfs /data文件下

3.5 下载文件到本地

hdfs dfs -get 要下载的文件路径和名称

3.6 复制文件夹到本地

hdfs dfs -copyToLocal 要下载的文件路径和名称

很多命令和Linux中都是大同小异,这里就不过多列举,感兴趣的小伙伴可以自行查看。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/132835.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • MyBatis模糊查询的4种实现方式

    MyBatis模糊查询的4种实现方式1、根据姓名模糊查询员工信息1.1、方式一步骤一:编写配置文件步骤二:测试步骤三:分析此种方式需要在调用处手动的去添加“%”通配符。1.2、方式二说明:使用方式一可以实现模糊查询,但是有一点不方便的地方就是:在测试类中,调用selectList()方法传参时需要调用者手动的添加%号通配符,显然是麻烦的,能否在映射配置文件中直接将%号写好呢?有的朋友可能会这么想,好办,直接在配置文件中这么写:形如1:测试后发现,程序会报错,原因是:缺少单引号。这…

    2025年7月7日
    2
  • hashmap线程安全吗 什么解决方案_redis一致性hash和hash槽

    hashmap线程安全吗 什么解决方案_redis一致性hash和hash槽HashMap为什么是线程不安全的?

    2025年7月28日
    2
  • vmware15激活码-激活码分享

    (vmware15激活码)JetBrains旗下有多款编译器工具(如:IntelliJ、WebStorm、PyCharm等)在各编程领域几乎都占据了垄断地位。建立在开源IntelliJ平台之上,过去15年以来,JetBrains一直在不断发展和完善这个平台。这个平台可以针对您的开发工作流进行微调并且能够提供…

    2022年3月22日
    147
  • struts2 FilterDispatcher StrutsPrepareAndExecuteFilter[通俗易懂]

    struts2 FilterDispatcher StrutsPrepareAndExecuteFilter[通俗易懂]StrutsPrepareAndExecuteFilter与FilterDispatcher的区别org.apache.struts2.dispatcher.ng.filter.StrutsPrepareAndExecuteFilterorg.apache.struts2.dispatcher.FilterDispatcherFilterDispatcher是早期struts2的过

    2022年8月16日
    6
  • Linux常用命令:chmod修改文件权限 777和754

    Linux常用命令:chmod修改文件权限 777和754常用下面这条命令:chmod777 文件或目录示例:chmod 777/etc/squid运行命令后,squid文件夹(目录)的权限就被修改为777(可读可写可执行)。如果是Ubuntu系统,可能需要加上sudo来执行:sudochmod 777/etc/squid故事的开始,都会先留一个悬念。只有程序员能懂的冷笑话系列中,有个比较经典的段子:请用最简洁的语言描述我国FL。754。…

    2022年7月27日
    9
  • 最速下降法收敛速度快还是慢_最速下降法是全局收敛算法吗

    最速下降法收敛速度快还是慢_最速下降法是全局收敛算法吗\qquad已知设步长为α\alphaα,下降方向为ddd,f(xk+αd)f(x_{k}+\alphad)f(xk​+αd)在xkx_{k}xk​的TaylorTaylorTaylor展示为f(xk+1)=f(xk+αd)=f(xk)+αgkTd+O(∣∣αd∣∣2)f(x_{k+1})=f(x_{k}+\alphad)=f(x_{k})+\alphag_{k}^{T}d+O(||\…

    2025年6月3日
    5

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号