hadoop主要包含三块:YARN(资源协调)、HDFS(分布式存储)、MR(分布式计算)。而Spark是一个分布式计算的框架。所以如果论重要性,显然是Hadoop;但是现在很多公司更多的是将spark和hadoop结合起来使用。使用spark代替mr做机损框架