java.net.ConnectException: Call From ubuntu/192.168.72.131 to localhost:9000 failed on connection ex[通俗易懂]

java.net.ConnectException: Call From ubuntu/192.168.72.131 to localhost:9000 failed on connection ex[通俗易懂]java.net.ConnectException: Call From ubuntu/192.168.72.131 to localhost:9000 failed on connection ex

大家好,又见面了,我是你们的朋友全栈君。

报错信息是:

ERROR tool.ImportTool: Encountered IOException running import job: java.net.ConnectException: Call From ubuntu/192.168.72.131 to localhost:9000 failed on connection exception: java.net.ConnectException: Connection refused; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused
        at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
        at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62)

        at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)

我是在启动hadoop集群后,使用./hadoop/bin/hdfs dfs -ls命令查询hdfs 文件时出现的错。

解决办法:

先切换到root,修改/etc/hosts文件,把127.0.0.1 localhost和127.0.1.1 都注释掉,只留ip地址和主机名:

#127.0.0.1      localhost
#127.0.1.1      ubuntu3

192.168.72.131  ubuntu
192.168.72.132  ubuntu2
192.168.72.133  ubuntu3
# The following lines are desirable for IPv6 capable hosts
::1     ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes

ff02::2 ip6-allrouters

重启后,再次启动hadoop集群。执行命令还是报同样的错。

所以接着改,看到报错信息有localhost:9000 想想哪里有这个配置。在hadoop 的配置文件中,我的有core-site.xml这个文件有配置locahost:9000.

<configuration>
        <!-- 指定hdfs的nameservice 为ns -->
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://ns</value>
        </property>
        <!--指定zookeeper地址-->
        <property>
                <name>ha.zookeeper.quorum</name>
                <value>ubuntu:2181,ubuntu2:2181,ubuntu2:2181</value>
        </property>
        <property>

                <name>hadoop.tmp.dir</name>

                <value>/home/xiaoye/hadoop/tmp</value>

        </property>

       <!-- <property>

                <name>fs.default.name</name>

                <value>hdfs://localhost:9000</value>

        </property> -->

</configuration>

于是果断把最后的property给注释掉。同样集群的其他机器也注释掉。再次执行命令就可以了。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/106167.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • stringtokenizer是什么意思_string getbytes

    stringtokenizer是什么意思_string getbytesStringTokenizer是一个用来分隔String的应用类。构造函数publicStringTokenizer(Stringstr)publicStringTokenizer(Stringstr,Stringdelim)publicStringTokenizer(Stringstr,Stringdelim,booleanreturnDelims)第一个参

    2022年8月11日
    4
  • SFTP第一篇——搭建SFTP Server

    SFTP第一篇——搭建SFTP Server一、Mac搭建SftpServer1、检查ftp工具打开命令行,输入“ftp–help”,检查是否已经安装ftp工具。如果没有,通过以下命令安装: brewinstalltelnet brewinstallinetutils brewlink–overwriteinetutils 如果没有brew,通过以下命令安装:/usr/bin/…

    2022年10月21日
    0
  • maven本地仓库配置文件_maven默认仓库地址

    maven本地仓库配置文件_maven默认仓库地址maven配置本地仓库

    2022年9月23日
    0
  • 深度学习:文本CNN-textcnn

    深度学习:文本CNN-textcnn对于文本分类问题,常见的方法无非就是抽取文本的特征,比如使用doc2evc或者LDA模型将文本转换成一个固定维度的特征向量,然后在基于抽取的特征训练一个分类器。然而研究证明,TextCnn在文本分类问题上有着更加卓越的表现。从直观上理解,TextCNN通过一维卷积来获取句子中n-gram的特征表示。TextCNN对文本浅层特征的抽取能力很强,在短文本领域如搜索、对话领域专注…

    2022年4月19日
    121
  • Wallpaper Engine 占用GPU过高解决办法「建议收藏」

    Wallpaper Engine 占用GPU过高解决办法「建议收藏」看到本文的时候,首先你要有一个大致认识:Wallpaper中的壁纸大致分为两种:一种是实时计算渲染的,一种是视频播放渲染的。当你明白这一点的时候就不难解释为什么有的壁纸不大,但是却给人一种挖矿的感觉,有的壁纸很大却完美运行。。。。目录吐槽:解决办法:总结吐槽:今天找到了一个很好看(屌丝)的壁纸,结果应用起来,却发现电脑卡顿严重(见下图),虽说我的显卡1650不是很好,可也不至于带不动个20多MB的壁纸吧???于是乎……..我发现是我想简单了,他这个壁纸是..

    2022年6月17日
    1.0K
  • 漫谈大数据 – 基于SparkSQL的离线数仓「建议收藏」

    漫谈大数据 – 基于SparkSQL的离线数仓「建议收藏」数据仓库,英文名称为DataWarehouse,可简写为DW或DWH。数据仓库,是为企业所有级别的决策制定过程,提供所有类型数据支持的战略集合。它是单个数据存储,出于分析性报告和决策支持目的而创建。为需要业务智能的企业,提供指导业务流程改进、监视时间、成本、质量以及控制。

    2025年7月25日
    0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号