fs.defaultFS
hdfs://192.168.0.4:9000
hadoop.tmp.dir
/opt/hadoop-2.5
#vi hdfs-site.xml:
dfs.namenode.secondary.http-address
192.168.0.5:50090
dfs.namenode.secondary.https-address
192.168.0.5:50091
#vi slaves:配置datenote的属性。 192.168.0.5 192.168.0.8 192.168.0.9 #vi masters:配置secondary namenode 192.168.0.5
(8)如果以上配置完成后,还不能显示datanode,可以试着添加或修改主机名。hostname /etc/hosts /etc/hostname
dfs.nameservices
mycluster
//nameservice ID
- namenode配置:
dfs.ha.namenodes.mycluster
nn1,nn2
//两个namenode的名称
- nameNode的rpc协议具体配置:(修改两个namenode的value值)
dfs.namenode.rpc-address.mycluster.nn1
//注意nameservice ID要一致
machine1.example.com:8020
//第一个namenode的配置
dfs.namenode.rpc-address.mycluster.nn2
machine2.example.com:8020
//第二个namenode的配置
- namenode的http协议的具体配置:(修改两个namenode的value值)
dfs.namenode.http-address.mycluster.nn1
machine1.example.com:50070
//第一个namenode的配置
dfs.namenode.http-address.mycluster.nn2
machine2.example.com:50070
//第二个namenode的配置
- edits文件的共享目录:
dfs.namenode.shared.edits.dir
qjournal://node1.example.com:8485;node2.example.com:8485;node3.example.com:8485/mycluster
- java连接NameNode的配置:基本不用修改
dfs.client.failover.proxy.provider.mycluster
org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
-
dfs.ha.fencing.methods
sshfence
dfs.ha.fencing.ssh.private-key-files
/home/exampleuser/.ssh/id_rsa
//私钥目录
- 配置journalnode的数据存放目录: -
dfs.journalnode.edits.dir
/path/to/journal/node/local/data
#编辑 core-site.xml文件 -
fs.defaultFS
hdfs://mycluster
//nameservice ID
-
hadoop.tmp.dir
/opt/hadoop-2.5
# 以上是手动切换的配置,如果需要自动切换则需: - 编辑hdfs-site.xml:
dfs.ha.automatic-failover.enabled
true
- 编辑core-site.xml:配置zoodeeper的三台服务器。(server1 server2 server3)
ha.zookeeper.quorum
zk1.example.com:2181,zk2.example.com:2181,zk3.example.com:2181
14.熟悉hdfs hadoop-daemon start-dfs.sh等命令。
发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/208877.html原文链接:https://javaforall.net
