更新时间:2022-09-08 GMT+08:00
分享

适用场景

Mapreduce的文件存储基于HDFS,适用场景为大数据集(大于1TB)并行运算场景,当所处理的文件无法加载到内存时,建议选择Mapreduce。

在没有周边约束必须要使用MapReduce的情况下建议使用Spark。

分享:

    相关文档

    相关产品