如果条件许可,公司提供Spark集群机器,在Spark集群机器上进行开发和学习是最好的; 如果条件不允许,在亚马逊云计算平台上构建Spark集群环境也是一种非常理想的选择; 如果纯粹是学习使用,安装单机版的Spark也是可以的
使用spark,scala不是必须的,spark有java、python、r的api。但是要想深入学习,还是建议学习scala的。我现在的感觉就是,如果你会scala,spark都不用怎么学。因为一般的scala程序就是这么写的,用spark的区别就是换了一套api而已...
spark是scala开发的。应该需要学习下scala。
用户登录
还没有账号?立即注册
用户注册
投稿取消
文章分类: |
|
还能输入300字
上传中....