补充:同步一下三台服务器的时间啦~~

=======================================================================================================================================

Hadoop安装(完全分布式安装)

1、先在一台机器上安装   其他的远程发送

2、我们这里假设hadoop01是namenode                                   datanode

                           hadoop02是secondarynamenode                 datanode

                           hadoop03是resourcemanager                       datanode

 

我们现在hadoop01上进行操作

1、上传hadoop压缩包

2、解压缩

1)创建apps文件夹

 

2),将上传的hadoop压缩包放入apps中

mv hadoop-2.7.6.tar.gz apps/

3)解压 hadoop

tar -zxvf hadoop-2.7.6.tar.gz 

3、修改配置文件( 在 /home/hadoop/apps/hadoop-2.7.6/etc/hadoop/  目录下)

     3.1 vim hadoop-env.sh

export JAVA_HOME=/usr/local/java/jdk1.8.0_71

 

 

 3.2 vim core-site.xml

 加在<configuration>标签中间


<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/data/hadoopdata</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop01:9000</value>
</property>

 

 

 

 

 3.3 vim hdfs-site.xml

<property>
        <name>dfs.namenode.name.dir</name>
        <value>/home/hadoop/data/hadoopdata/name</value>
        <description>为了保证元数据的安全一般配置多个不同目录</description>
</property>
<property>
        <name>dfs.datanode.data.dir</name>
        <value>/home/hadoop/data/hadoopdata/data</value>
        <description>datanode 的数据存储目录</description>
</property>
<property>
        <name>dfs.replication</name>
        <value>2</value>
        <description>HDFS 的数据块的副本存储个数</description>
</property>
<property>
        <name>dfs.secondary.http.address</name>
        <value>hadoop02:50090</value>
<description>secondarynamenode 运行节点的信息,和 namenode 不同节点</description>
</property>
 

 

 

3.4

我们先把 mapred-site.xml.template  复制一份 名字就叫作

mapred-site.xml

cp mapred-site.xml.template mapred-site.xml

 

vim mapred-site.xml

<property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
</property>

3.5 vim yarn-site.xml

<property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hadoop03<alue>
</property>
<property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle<alue>
        <description>YARN 集群为 MapReduce 程序提供的 shuffle 服务</description>
</property>

 

3.6 vim slaves

删除原来的localhost

加入下面三个   中间不可以有空格  不可以有空行

敲完第一个直接回车(中间不可以有空格)

敲完第二个直接回车

敲完第三个保存

4、配置hadoop环境变量

sudo vim /etc/profile

export JAVA_HOME=/usr/local/javak1.8.0_73
export HADOOP_HOME=/home/hadoop/apps/hadoop-2.7.6
export PATH=$JAVA_HOME/bin:$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

 

 

 

source /etc/profile   重新加载一下配置文件

 验证:hadoop version

 

 5、远程发送到其他两个节点

scp -r hadoop-2.7.6 hadoop02:$PWD
scp -r hadoop-2.7.6 hadoop03:$PWD

sudo scp /etc/profile hadoop02:/etc/
sudo scp /etc/profile hadoop03:/etc/

 最后每个服务器都要

source /etc/profile

验证我们其他两台服务器是否成功

hadoop version

 

6.如果三台服务器都搭建好的话执行下面的操作

(1)初始化

       只需要在一台机器上执行,一定在namenode节点上的  hdfs的主节点上

       我们这里假设hadoop01是namenode  所以在hadoop01上执行这个命令
       hadoop namenode -format

(2)启动hdfs 在hadoop01 上执行

         start-dfs.sh   

(3)启动yarn(在hadoop03上执行   假设hadoop03是resourcemanager   yarn的主节点)

        start-yarn.sh

7、验证

在浏览器中输入:

hadoop01:50070
hadoop03:8088

 

 

 

 大功告成~~~~~

 

版权声明:本文为zhaozishuang原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/zhaozishuang/p/9315223.html