在Hadoop文件参数配置完成之后

  1. su - hadoop
  2. cd /usr/local/src/hadoop/
  3. ./bin/hdfs namenode -format
  4. hadoop-daemon.sh start namenode
  5. hadoop-daemon.sh start secondarynamenode
  6. jps

如果看到NameNode和SecondaryNameNode就表示成功

  1. su - hadoop
  2. hadoop-daemon.sh start datanode
  3. jps

如果看到DataNode就表示成功

  1. su - hadoop
  2. hdfs dfsadmin -report
  1. ssh-keygen -t rsa
  2. ssh-copy-id slave1
  3. ssh-copy-id slave2
  4. ssh-copy-id master
  5. stop-dfs.sh
  6. start-dfs.sh
  7. start-yarn.sh
  8. jps

如果在master上看到ResourceManager,并且在slave上看到NodeManager就表示成功

  1. hdfs dfs -mkdir /input
  2. hdfs dfs -ls /
  3. mkdir ~/input
  4. vi ~/input/data.txt
  5. hello world
  6. hello hadoop
  7. hello zzz
  1. hdfs dfs -put ~/input/data.txt /input
  2. hdfs dfs -cat /input/data.txt
  3. hadoop jar /usr/local/src/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar wordcount /input/data.txt /output

执行完后要看到map是100%,reduce也是100%,还要看到successfully

  1. hdfs dfs -cat /output/part-r-00000
  1. 进入C:\windows\system32\drivers\etc
  2. 把此目录下的hosts文件拖到桌面上
  3. 右键打开此文件加入ip与主机名的映射关系
  4. 保存后拖回原文件
  5. 在浏览器上输入master:8088访问可以看到 MapReduce程序刚刚完成的作业
  6. 在浏览器上输入master:50070访问namenodedatanode
  7. 在浏览器上输入master:50090访问secondarynamenode
  1. 1.步骤一:停止 yarn
  2. [hadoop@master hadoop]$ stop-yarn.sh
  3. 步骤二:停止 DataNode
  4. [hadoop@slave1 hadoop]$ hadoop-daemon.sh stop datanode
  5. stopping namenode
  6. [hadoop@slave2 hadoop]$ hadoop-daemon.sh stop datanode
  7. stopping namenode
  8. 步骤二:停止 NameNode
  9. [hadoop@master hadoop]$ hadoop-daemon.sh stop namenode
  10. stopping namenode
  11. 步骤三:停止 SecondaryNameNode
  12. [hadoop@master hadoop]$ hadoop-daemon.sh stop secondarynamenode
  13. stopping secondarynamenode
  14. 步骤四:查看 JAVA进程,确认 HDFS进程已全部关闭
  15. [hadoop@master hadoop]$ jps
  16. 3528 Jps
  17. 30838 RunJar
版权声明:本文为?原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/zhengyan6/p/16123195.html