3.Spark更快
由于数据处理方式,Spark要比MapReduce快很多。
Spark 是一种与 MapReduce相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些有用的不同之处使 Spark 在某些工作负载方面表现得更加优越,换句话说,Spark 启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。
4:你可能不需要MapReduce的速度。
如果你的数据操作和报告大多数情况下是静态的,那么你可能并不需要MapReduce,你只需要等待批处理模式处理器就可以了。
但是如果,你需要从传感器上做分析的数据。就想一个工厂,或者需要从多个操作应用程序中分析数据,那么你可能需要的Spark,Spark常见的应用包括实时的营销活动,网上促销的产品,网络安全分析和机器日志监控。
5:故障恢复:
它们是不同的,Hadoop是弹性系统的错误或故障,因为每次恢复操作后的数据被写入磁盘。
但Spark具有类似于内置内存的分析,这些数据对象可以存储在内存或磁盘。
标签:服务器