Linux下安装Hadoop集群详细步骤

  

6.进入slaves添加主节点和从节点


vim slaves

添加自己的主节点和从节点(我的是z1,z2,z3)

7.将各个文件复制到其他虚拟机上


scp -r /etc/profile root@z2:/etc/profile #将环境变量profile文件分发到z2节点
scp -r /etc/profile root@z3:/etc/profile #将环境变量profile文件分发到z3节点
scp -r /usr/hadoop root@z2:/usr/   #将hadoop文件分发到z2节点
scp -r /usr/hadoop root@z3:/usr/   #将hadoop文件分发到z3节点

生效两个从节点的环境变量


source /etc/profile

8.格式化hadoop (仅在主节点中进行操作)

首先查看jps是否启动hadoop


hadoop namenode -format

当看到Exiting with status 0时说明格式化成功

9.回到Hadoop目录下(仅在主节点操作)


cd /usr/hadoop/hadoop-2.6.0
sbin/start-all.sh  启动Hadoop仅在主节点操作

主节点输入jps效果:

从节点输jps效果:

到此这篇关于linux下安装Hadoop集群详细步骤的文章就介绍到这了,更多相关Linux安装Hadoop集群内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!