从事大数据开发不学hadoop,直接学spark,可以吗

2024-12-25 18:55:22
推荐回答(1个)
回答1:

hadoop和spark是个生态互补,各有特点和应用场景。学习spark最好有一些hadoop的知识,因为spark使用了hadoop生态中好多组件。hadoop已经发展为当前大数据标准结合对比学习效果会更好,你可以专注spark的研究和学习,但一点不懂hadoop是不可能的,去 大讲台 看看,希望可以帮助到你。