理论上来讲,学习spark和storm是不需要学习hadoop的。spark和storm都是独立的开源项目,在完整性上是self-constrained的,完全可以独立学习。从循序渐进的角度,还是可以了解一下hadoop的,以spark为例,理解了hadoop的mapreduce,知道它的缺陷,才能更好的理解spark的优势和最佳的应用场景,毕竟很多开源项目都是站在hadoop的肩膀上来的。Good luck!