当前位置:主页 > 查看内容

Hadoop安装教程_单机/伪分布式配置---------常见的问题

发布时间:2021-08-05 00:00| 位朋友查看

简介:Hadoop文件安装时的问题 在Hadoop安装时要配置JAVA环境变量 注意要下载与之后操作相对应的版本 否则会出现很多问题。 下载Hadoop文件注意要如同1一样 要下载与JAVA版本相对于的版本 否则会出现不可以调用的问题。 Hadoop伪分布式时的问题 configuration /con……

Hadoop文件安装时的问题

  1. 在Hadoop安装时,要配置JAVA环境变量,注意要下载与之后操作相对应的版本,否则会出现很多问题。
  2. 下载Hadoop文件,注意要如同1一样,要下载与JAVA版本相对于的版本,否则会出现不可以调用的问题。

Hadoop伪分布式时的问题

  1. <configuration> </configuration>
    按照安装教程进行伪分布式配置的修改配置文件时,要注意<configuration> </configuration>这个标签只有一个,而原文件中以有这个标签,只需将教程中的其他内容复制到里面就行了,否则将会如下的错误报告。在这里插入图片描述
  2. 其次,在修改配置文件中如果不是复制内容,而是手打的话,就需要完完全全按照教程中输入相应代码。以下是容易打错的地方:1.data >>> date 2.**<property> </property>**每一段的完成都需要有这样的格式3.**<name></name>**也是如此 4. **<value></value>**也是如此。

Hadoop集群配置时出现的常见问题

  1. 为方便起见,我们可以对先前的hadoop虚拟机进行复制,克隆出两个相同的虚拟机,来作为Master节点和Slave节点。但要注意两者要有用不同的MAC地址,同时要修改sudo vim /etc/hostname中的主机名,改为Master和Slave。在进行集群配置的时候,要注意将两个节点(Master和Slave)两个虚拟机同时打开,两者才能互通,这是最基本的前提。
  2. 在配置集群环境的时候,如修改配置core-site.xml文件的时候,也要注意Hadoop伪分布式出现的相关问题。
  3. 最容易但也很简单出现的问题(我因此忽略这个小细节,调试了很多时间在其他没有错误的地方,浪费了很多时间):slaves文件的配置,注意在集群配置中,这个文件中只需要留存一个主机名,将Master节点中的slaves文件里面的内容改为Slave,这样才能将数据节点赋予Slave节点,让其拥有datanode,否则如下图的情况。
  4. 在集群配置时,可能会因为一些原因,而多次使用hdfs namenode -format 多次初始化会让Slave节点启动datanode失败,因为多次初始化,使得Namenode会产生新的clusterid,导致与datanode上的culsterid不一致,使得Slave节点启动datanode失败。对此我采用了两种方法去解决:1 .删除hadoop目录下的data和logs文件夹,重新初始化。 2. 找到Slave节点上的clusterid和Master上的clusterid,将Slave节点上的clusterid改成与Master上的一致即可。

这些就是我在使用hadoop时出现的常见问题。

;原文链接:https://blog.csdn.net/weixin_56263155/article/details/115818387
本站部分内容转载于网络,版权归原作者所有,转载之目的在于传播更多优秀技术内容,如有侵权请联系QQ/微信:153890879删除,谢谢!

推荐图文


随机推荐