在企业中,hadoop和spark都会用的,spark出来时间较短,以前在hadoop平台上的应用还没有完全迁移过来。它们能够集成在YARN之上,在同一个集群上运行这两个框架。spark只是个计算框架,存储还是要依靠hadoop中的hdfs或hbase或其它文件系统。可以主攻spark,学的时候肯定还是要接触hadoop方面的知识,用的时候再补。
别从事大数据了,我在广州,你可以查一下招聘信息,广州大数据招聘的职位不是很多,还不如学c++,android,web开发来得实惠。附带一提,javascript,python的招聘职位也挺少的。。。
如果真对大数据感兴趣,那就先精通java,ssh,这是java web招聘的一般要求,很多招聘要求都是在此基础上再加上大数据,高并发,分布式等要求的。hadoop,memcache等属于高阶要求,我觉得你应该一步一步来,不要急于求成。。。spark听说得比较少。。。。有问题可以追问
Hadoop|
Apache Pig|
Apache Kafka|
Apache Storm|
Impala|
Zookeeper|
SAS|
TensorFlow|
人工智能基础|
Apache Kylin|
Openstack|
Flink|
MapReduce|
大数据|
云计算|
用户登录
还没有账号?立即注册
用户注册
投稿取消
文章分类: |
|
还能输入300字
![](/assets/images/loadings.gif)
上传中....