1、
问题描述:hadoop集群启动时,datanode进程启动不了
原因分析:namenode和datanode下VERSION文件中的clusterID不一致,导致datanode启动不了
解决方法:进入hadoop的配置目录hadoop-2.7.1/etc/hadoop,进入hdfs-site.xml配置文件,找到namenode和datanode的配置空间
dfs.namenode.name.dir
file:///root/work/hadoop-2.7.1/tmp/namenode
dfs.datanode.data.dir
file:///root/work/hadoop-2.7.1/tmp/datanode
进入/root/work/hadoop-2.7.1/tmp/目录,分别进入amenode/current和datanode/current目录,编辑VERSION文件,复制namenode的clusterID,覆盖掉datanode的clusterID,然后再次启动datanode,即可启动成功!
2、
问题描述:flink 在idea本地运行,设置检查点为Hadoop文件系统,启动报错,权限不足、

原因分析:登录Hadoop文件系统页面,发现/flink/文件夹拥有者为hdfs

解决方法:设置Hadoop环境变量,HADOOP_USER_NAME为hdfs

电脑重启,idea再次启动程序,即可正常运行
后续持续更新中。。。。。。
发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/229171.html原文链接:https://javaforall.net
