Hadoop教程

Hadoop完全分布式配置

本文主要是介绍Hadoop完全分布式配置,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
  1. 由于之前已经做了伪分布式配置,在做完全分布式配置之前,需要首先删除master主机hadoop安装路径下的tmp和logs文件夹中的文件:
    在这里插入图片描述
  2. 重新配置core-site.xml和hdfs-site.xml,以及mapred-site.xml和yarn-site.xml。
    (1)首先编辑core-site.xml在这里插入图片描述在这里插入图片描述
    (2)然后编辑hdfs-site.xml
    在这里插入图片描述
    (3)编辑mapred-site.xml
    在这里插入图片描述在这里插入图片描述
    (4)编辑yarn-site.xml
    在这里插入图片描述
  3. 修改slaves文件
  4. 压缩hadoop安装文件夹,然后分发到slave主机:
    在这里插入图片描述
  5. 在slave节点以root账户登录,在各个slave节点解压:
    在这里插入图片描述
  6. 在master节点格式化namenode,只执行一次,以后启动Hadoop时不需要再次格式化。
    在这里插入图片描述
    注意:重复格式化会造成namenode和datanode的clusterID不一致,出现此种情况,需要删除各个节点hadoop下的tmp文件夹和logs文件夹的内容,然后,重新格式化namenode。
  7. 格式化完成后,启动Hadoop和Yarn。
    在这里插入图片描述
  8. 通过jps命令查看各个节点的进程:
    在这里插入图片描述
    如果有个别进程没有启动,可以单独启动,例如通过hdfs --daemon start datanode启动数据节点。
  9. 在master节点通过hdfs dfsadmin –report命令可以查看集群状态,其中,Live datanodes (4)表明集群启动成功。
  10. 还可以通过web界面查看集群状态,在linux浏览器输入http://master:9870/
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
  11. 最后,关闭Hadoop集群,在master节点执行如下命令:
    在这里插入图片描述
这篇关于Hadoop完全分布式配置的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!