没啥大的区别,就是spark支持不同的开发语言而已。 spark建议用scalc开发,毕竟spark用Scala写的。就像hadoop一样,用java写的,就推荐用java开发一个道理。 实在说有啥大的区别,我觉得最大的差别应该就是大家的心里作用吧!
就个人体会来说,scala相对于java的优势是巨大的。熟悉scala之后再看java代码,有种读汇编的感觉……
如果仅仅是写spark应用,并非一定要学scala,可以直接用spark的java api或python api。但因为语言上的差异,用java开发spark应用要罗嗦许多。好在带lambda的java 8出来之后有所改善。
在spark应用开发上,学scala主要好处有二:
开发效率更高,代码更精简;
使用spark过程中出现异常情况,在排查时如果对spark源码比较熟悉,可以事半功倍。
用户登录
还没有账号?立即注册
用户注册
投稿取消
文章分类: |
|
还能输入300字
上传中....