服务器
    作者:赵为民

    Hadoop vs Apache Spark 5件事需要了解

         [ 中关村在线 原创 ] 暂无评论

        3.Spark更快

        由于数据处理方式,Spark要比MapReduce快很多。

        Spark 是一种与 MapReduce相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些有用的不同之处使 Spark 在某些工作负载方面表现得更加优越,换句话说,Spark 启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。

    Hadoop vs Apache Spark 5件事需要了解

      4:你可能不需要MapReduce的速度。

        如果你的数据操作和报告大多数情况下是静态的,那么你可能并不需要MapReduce,你只需要等待批处理模式处理器就可以了。

        但是如果,你需要从传感器上做分析的数据。就想一个工厂,或者需要从多个操作应用程序中分析数据,那么你可能需要的Spark,Spark常见的应用包括实时的营销活动,网上促销的产品,网络安全分析和机器日志监控。

      5:故障恢复:

        它们是不同的,Hadoop是弹性系统的错误或故障,因为每次恢复操作后的数据被写入磁盘。

        但Spark具有类似于内置内存的分析,这些数据对象可以存储在内存或磁盘。

    标签:服务器
    提示:支持键盘“← →”键翻页
    本文导航

    关注排行榜

    产品品牌

    文章推荐

    互动沙龙

    相关内容 网友评论 返回首页
    专家咨询