区别挺大的。先从 相似的点说起吧相似之处:都提供大规模的数据计算能力不同之处:hadoop有两大核心HDFS和MapReduce,spark只是和mapReduce略有相像而已(一个是基于磁盘做大规模数据计算,一个基于内存迭代计算)。所以从某种角度来讲spark可以说是hadoop的一个自己。和mapreduce提供差不多的功能,而hdfs则是分布式文件系统,这是大数据得以实现的基石