​ 利用xshell工具,使用命令hostnamectl set-hostname进行修改主机名,重新连接后生效。使用hostname查看主机名。

  • 对第一台机器:hostnamectl set-hostname master
    在这里插入图片描1述
  • 对第二台机器:hostnamectl set-hostname slave
    在这里插入图2片描述
  • 对master:输入命令[root@master ~]# vi /etc/hosts

  • 对slave: 输入命令[root@slave ~]# vi /etc/hosts

将下面两行追加到文件中,保存并退出。

192.168.21.105 master 192.168.21.106 slave
在这里插入图片描述
进行验证:

  • [root@master ~]# ping slave
    在这里插入图片描述
  • [root@slave ~]# ping master
    在这里插入图片描述

利用xftp工具将jdk和hadoop安装包上传到master和slave机器中,两台机器做相同的操作,以master为例:

  • 安装包上传好后,进行查看。
    在这里插入图片描述
  • 执行如下命令进行解压(注意在root目录下进行,可以使用命令pwd进行查看)

[root@master ~]# tar -xvf jdk-8u221-linux-x64.tar.gz

[root@master ~]# tar -xvf hadoop-2.6.5.tar.gz
在这里插入图片描述

  • 配置路径

执行命令[root@master ~]# vi .bash_profile

添加如下两行:

export JAVA_HOME=/root/jdk1.8.0_221 export PATH=$JAVA_HOME/bin:$PATH
在这里插入图片描述
执行命令[root@master ~]#source .bash_profile使之生效;然后进行校验,出现如下界面证明jdk安装并配置成功。
在这里插入图片描述

关闭防火墙[root@master ~]# systemctl stop firewalld(开机后自动还原)

禁止防火墙开机启动[root@master ~]# systemctl disable firewalld

查看防火墙状态[root@master ~]# systemctl status firewalld,出现如下界面说明设置成功!
在这里插入图片描述
防火墙相关的命令

命令 说明
systemctl status firewalld 查看防火墙
systemctl stop firewalld 关闭防火墙(开机自动还原)
systemctl disable firewalld 禁止防火墙开机启动
systemctl start firewalld 启动防火墙
systemctl enable firewalld 允许防火墙开机启动
  • 在master和slave节点,分别执行命令[root@master ~]# ssh-keygen -t rsa,一路默认回车。
    在这里插入图片描述

  • 在master节点

    复制公钥到本地:

[root@master .ssh]# cp id_rsa.pub authorized_keys

​ 远程分发公钥到slave:

[root@master .ssh]# scp -p id_rsa.pub root@slave:/root/.ssh/authorized_keys
在这里插入图片描述

  • 在slave节点

进入到./root/.ssh路径下修改文件属性:

[root@slave .ssh]# chmod 600 authorized_keys
在这里插入图片描述

  • 验证

在master节点上,[root@master .ssh]# ssh slave
在这里插入图片描述
接着验证[root@master .ssh]# ssh master
在这里插入图片描述
此时说明免密钥登录设置成功!

进入到/root/hadoop-2.6.5/etc/hadoop目录下
在这里插入图片描述

  • 配置hadoop-env.sh

[root@master hadoop]# vi hadoop-env.sh找到如下内容,

# The java implementation to use. export JAVA_HOME=${JAVA_HOME}

将其修改为:

# The java implementation to use. export JAVA_HOME=/root/jdk1.8.0_221/ 保存退出。
在这里插入图片描述

  • 配置yarn-env.sh

[root@master hadoop]# vi yarn-env.sh找到如下内容

# some Java parameters

# export JAVA_HOME=/home/y/libexec/jdk1.6.0/

将其修改为

# some Java parameters export JAVA_HOME=/root/jdk1.8.0_221/保存退出。
在这里插入图片描述

  • 配置core-site.xml

执行命令[root@master hadoop]# vi core-site.xml 添加如下内容:

  1. <configuration>
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://master:9000</value>
  5. </property>
  6. <property>
  7. <name>hadoop.tmp.dir</name>
  8. <value>/root/hadoopdata</value>
  9. </property>
  10. </configuration>

在这里插入图片描述

  • 配置hdfs-site.xml

执行命令[root@master hadoop]# vi hdfs-site.xml 添加如下内容:

  1. <configuration>
  2. <property>
  3. <name>dfs.replication</name>
  4. <value>1</value>
  5. </property>
  6. </configuration>

在这里插入图片描述

  • 配置yarn-site.xml

执行命令[root@master hadoop]# vi yarn-site.xml 添加如下内容:

  1. <property>
  2. <name>yarn.nodemanager.aux-services</name>
  3. <value>mapreduce_shuffle</value>
  4. </property>
  5. <property>
  6. <name>yarn.resourcemanager.address</name>
  7. <value>master:8040</value>
  8. </property>
  9. <property>
  10. <name>yarn.resourcemanager.scheduler.address</name>
  11. <value>master:8030</value>
  12. </property>
  13. <property>
  14. <name>yarn.resourcemanager.resource-tracker.address</name>
  15. <value>master:8025</value>
  16. </property>
  17. <property>
  18. <name>yarn.resourcemanager.admin.address</name>
  19. <value>master:8141</value>
  20. </property>
  21. <property>
  22. <name>yarn.resourcemanager.webapp.address</name>
  23. <value>master:8088</value>
  24. </property>

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

配置mapred-site.xml
在这里插入图片描述
执行命令[root@master hadoop]# cp mapred-site.xml.template mapred-site.xml
在这里插入图片描述
执行命令[root@master hadoop]# vi mapred-site.xml添加如下内容

  1. <property>
  2. <name>mapreduce.framework.name</name>
  3. <value>yarn</value>
  4. </property>

在这里插入图片描述

执行命令[root@master hadoop]# vi slaves

localhost替换为slave

[root@master hadoop]# cd [root@master ~]# scp -r hadoop-2.6.5 root@slave:~/

[root@master ~]# vi .bash_profile 添加如下内容:

  1. export HADOOP_HOME=/root/hadoop-2.6.5
  2. export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

在这里插入图片描述
[root@master ~]# source .bash_profile

在master上[root@master ~]# hdfs namenode -format
在这里插入图片描述

[root@master sbin]# ./start-all.sh
在这里插入图片描述
[root@master sbin]# jps
在这里插入图片描述
[root@slave ~]# jps
在这里插入图片描述

进入到/root/hadoop-2.6.5/share/hadoop/mapreduce 路径下
在这里插入图片描述
[root@master mapreduce]# hadoop jar hadoop-mapreduce-examples-2.6.5.jar pi 10 10
在这里插入图片描述

在浏览器地址栏输入http://master:50070/,出现如下页面,证明集群搭建成功!!!
在这里插入图片描述

版权声明:本文为HuanyuLee原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/aldalee/p/16732385.html