Hadoop的处理引擎MapReduce只提供两个操作Map和Reduce,表达力欠缺;一个Job只有Map和Reduce两个阶段无法满足复杂的计算需要,Job之间的依赖关系是由开发者自己管理的;ReduceTask需要等待所有MapTask都完成后才可以开始,时延高只适用Batch数据处理,对于交互式数据处理,实时数据处...
显示全部Hadoop的处理引擎MapReduce只提供两个操作Map和Reduce,表达力欠缺;一个Job只有Map和Reduce两个阶段无法满足复杂的计算需要,Job之间的依赖关系是由开发者自己管理的;ReduceTask需要等待所有MapTask都完成后才可以开始,时延高只适用Batch数据处理,对于交互式数据处理,实时数据处理的支持不够。因此MapReduce效率相对较低,所以我们选择更有效率,速度更快的内存级计算的Spark来构建医疗大数据分析平台。
收起