Linux的hadoop运行hadoop的时候出现错误:找不到或者无法加载主类 org.apache.hadoop.fs.FsShell是设置错误造成的,解决方法为:
1、打开Vmware虚拟机,打开三个虚拟机。
2、打开SecureCRT软件,分别连接到三个虚拟机中,在其中书写linux命令。
3、在master虚拟机中,进入hadoop/bin目录。
4、启动hdfs服务: ./start-all.sh ;查看hdfs已启动的服务(jps)。
5、在master中上传文件:./hadoop fs -put /usr/local/src/hadoop-1.2.1/bin/stop-mapred.sh /即可。
java换1.7
hadoop-0.21.0\bin hadoop-config.sh文件190行:
JAVA_PLATFORM=`CLASSPATH=${CLASSPATH} ${JAVA} -Xmx32m ${HADOOP_JAVA_PLATFORM_OPTS} org.apache.hadoop.util.PlatformName | sed -e "s/ /_/g"`
改:
JAVA_PLATFORM=`CLASSPATH=${CLASSPATH} ${JAVA} -Xmx32m -classpath ${HADOOP_COMMON_HOME}/hadoop-common-0.21.0.jar org.apache.hadoop.util.PlatformName | sed -e "s/ /_/g"