如果Hadoop集群是第一次启动,可以用start-all.sh。比较常用的启动方式是一个一个守护进程来启动,启动的步骤如下。
1.启动Hadoop的HDFS模块里的守护进程
HDFS里面的守护进程启动也有顺序,即:
1)启动NameNode守护进程;
2)启动DataNode守护进程;
3)启动SecondaryNameNode守护进程。
2.启动MapReduce模块里面的守护进程
MapReduce的守护进程启动也是有顺序的,即:
1)启动 JobTracker守护进程;
2)启动TaskTracker守护进程。
关闭的步骤正好相反,在这里就不描述了,读者可以自己试一下。
SecondaryNameNode是在master文件中配置的,datanode是在slaves文件中配置的,把master的安装文件复制到slave是正确的,具体什么问题请查看你的master和slaves文件是如何配置的