spark基于内存处理,速度快。hadoop基于磁盘读取,速度慢些,但spark对内存要求高。spark可以用hadoop底层的hdfs作为存储。两个结合效果更好
hadoop在外存处理数据,spark在内存处理数据。hadoop适合迭代处理,擅长批量处理;spark适合流处理,不擅长迭代处理。spark处理速度更快,但是太吃内存。
Hadoop|
Apache Pig|
Apache Kafka|
Apache Storm|
Impala|
Zookeeper|
SAS|
TensorFlow|
人工智能基础|
Apache Kylin|
Openstack|
Flink|
MapReduce|
大数据|
云计算|
用户登录
还没有账号?立即注册
用户注册
投稿取消
文章分类: |
|
还能输入300字
上传中....