学习spark和storm之前有必要学习hadoop吗

2024-12-25 18:06:12
推荐回答(1个)
回答1:

理论上来讲,学习spark和storm是不需要学习hadoop的。spark和storm都是独立的开源项目,在完整性上是self-constrained的,完全可以独立学习。从循序渐进的角度,还是可以了解一下hadoop的,以spark为例,理解了hadoop的mapreduce,知道它的缺陷,才能更好的理解spark的优势和最佳的应用场景,毕竟很多开源项目都是站在hadoop的肩膀上来的。Good luck!