服务器
    作者:涂兰敬

    Hadoop迈过七年之痒 正式发布1.0.0版

         [ 中关村在线 原创 ] 暂无评论
    返回分页阅读

    本文导航:

    1Hadoop正式发布1.0.0版本

         就在昨天,顶级Apache开源项目Hadoop发布了1.0.0版。Hadoop是前雅虎开发者Doug Cutting开发的分布式计算平台,名字源于玩具象,至今已被数千家公司用于分析大容量数据。Hadoop 1.0.0主要是修正了bug,改进了性能和兼容性。它的上一个版本是0.20.205.0,新版的版本号原是 0.20.205.1,但开发者表示,Hadoop已经成熟几年前就做好了应用于生产的准备,但有些客户在采用前希望看到版本号是1.0,所以他们决定直接跳到了1.0。

    Hadoop迈过七年之痒 正式发布1.0.0版

        话说,Hadoop是一个分布式系统基础架构,由Apache基金会开发。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力高速运算和存储。Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有着高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上。而且它提供高传输率(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求(requirements)这样可以流的形式访问(streaming access)文件系统中的数据。

        Hadoop这个名字不是一个缩写,它是一个虚构的名字。该项目的创建者,Doug Cutting如此解释Hadoop的得名:"这个名字是我孩子给一个棕黄色的大象样子的填充玩具命名的。我的命名标准就是简短,容易发音和拼写,没有太多的意义,并且不会被用于别处。小孩子是这方面的高手。Google就是由小孩命名的。”

      Hadoop 由 Apache Software Foundation 公司于 2005 年秋天作为 Lucene 的子hadoop logo项目Nutch的一部分正式引入。它受到最先由 Google Lab 开发的 MapReduce 和 Google File System 的启发。2006 年 3 月份,MapReduce 和 Nutch Distributed File System (NDFS) 分别被纳入称为 Hadoop 的项目中。   Hadoop 是最受欢迎的在 Internet 上对搜索关键字进行内容分类的工具,但它也可以解决许多要求极大伸缩性的问题。例如,如果您要 grep 一个 10TB 的巨型文件,会出现什么情况?在传统的系统上,这将需要很长的时间。但是 Hadoop 在设计时就考虑到这些问题,因此能大大提高效率。

      Hadoop 是一个能够对大量数据进行分布式处理的软件框架。但是 Hadoop 是以一种可靠、高效、可伸缩的方式进行处理的。Hadoop 是可靠的,因为它假设计算元素和存储会失败,因此它维护多个工作数据副本,确保能够针对失败的节点重新分布处理。Hadoop 是高效的,因为它以并行的方式工作,通过并行处理加快处理速度。Hadoop 还是可伸缩的,能够处理 PB 级数据。此外,Hadoop 依赖于社区服务器,因此它的成本比较低,任何人都可以使用。Hadoop带有用 Java 语言编写的框架,因此运行在 Linux 生产平台上是非常理想的。Hadoop 上的应用程序也可以使用其他语言编写,比如 C++。

      Hadoop 有许多元素构成。其最底部是 Hadoop Distributed File SystHadoop 集群的简化视图em(HDFS),它存储 Hadoop 集群中所有存储节点上的文件。HDFS(对于本文)的上一层是 MapReduce 引擎,该引擎由 JobTrackers 和 TaskTrackers 组成。

        在互联网这个领域一直有这样的说法:"如果老二无法战胜老大,那么就把老大赖以生存的东西开源吧"。当年Yahoo!与Google还是处在强烈竞 争关系时候,招聘了Doug(Hadoop创始人),把Google老大赖以生存的DFS与Map-Reduce开源了,开始了Hadoop的童年时期。 差不多在2008年的时候,Hadoop才算逐渐成熟。

      从初创到现在,Hadoop经过了至少7年的积累,现在的Hadoop不仅是当年的老二Yahoo的专用产品了,从Hadoop长长的用户名单中, 可以看到Facebook、Linkedin、Amazon,可以看到EMC、eBay、Twitter、IBM、Microsoft,、Apple、 HP…国内的公司有淘宝、百度等等。

      

    2Hadoop迈过“七年之痒”

        Hadoop迈过“七年之痒”

        从2004年至2011年,Hadoop走过了“七年之痒”。这七年来,我们将不难看出,Hadoop的发展基本上经历了这样一个过程:从一个开源的Apache基金会项目,随着越来越多的用户的加入,不断地 使用、贡献和完善,形成一个强大的生态系统,从2009年开始,随着云计算和大数据的发展,Hadoop作为海量数据分析的最佳解决方案,开始受到许多 IT厂商的关注,从而出现了许多Hadoop的商业版以及支持Hadoop的产品,包括软件和硬件。

    顶级Apache开源项目Hadoop发布1.0.0版
    Hadoop logo

      " 2004年,Google发表论文,向全世界介绍了MapReduce。

      " 2005年初,为了支持Nutch搜索引擎项目,Nutch的开发者基于Google发布的MapReduce报告,在Nutch上开发了一个可工作的MapReduce应用。

      " 2005年年中,所有主要的Nutch算法被移植到使用MapReduce和NDFS(Nutch Distributed File System )来运行。

      " 2006年1月,Doug Cutting加入雅虎,Yahoo!提供一个专门的团队和资源将Hadoop发展成一个可在网络上运行的系统。

      " 2006年2月,Apache Hadoop项目正式启动以支持MapReduce和HDFS的独立发展。

      " 2007年,百度开始使用Hadoop做离线处理,目前差不多80%的Hadoop集群用作日志处理。

      " 2007年,中国移动开始在"大云"研究中使用Hadoop技术,规模超过1000台。

      " 2008年,淘宝开始投入研究基于Hadoop的系统--云梯,并将其用于处理电子商务相关数据。云梯1的总容量大概为9.3PB,包含了1100台机器,每天处理约18000道作业,扫描500TB数据。

      " 2008年1月,Hadoop成为Apache顶级项目。

      " 2008年2月,Yahoo!宣布其搜索引擎产品部署在一个拥有1万个内核的Hadoop集群上。

      " 2008年7月,Hadoop打破1TB数据排序基准测试记录。Yahoo!的一个Hadoop集群用209秒完成1TB数据的排序 ,比上一年的纪录保持者保持的297秒快了将近90秒。

      " 2009 年 3 月,Cloudera推出CDH(Cloudera's Distribution including Apache Hadoop)平台,完全由开放源码软件组成,目前已经进入第3版。

      " 2009年5月,Yahoo的团队使用Hadoop对1 TB的数据进行排序只花了62秒时间。

      " 2009年7月 ,Hadoop Core项目更名为Hadoop Common;

      " 2009年7月 ,MapReduce 和 Hadoop Distributed File System (HDFS) 成为Hadoop项目的独立子项目。

      " 2009年7月 ,Avro 和 Chukwa 成为Hadoop新的子项目。

      " 2010年5月 ,Avro脱离Hadoop项目,成为Apache顶级项目。

      " 2010年5月 ,HBase脱离Hadoop项目,成为Apache顶级项目。

      " 2010年5月,IBM提供了基于Hadoop 的大数据分析软件--InfoSphere BigInsights,包括基础版和企业版。

      " 2010年9月,Hive( Facebook) 脱离Hadoop,成为Apache顶级项目。

      " 2010年9月,Pig脱离Hadoop,成为Apache顶级项目。

      " 2011年1月,ZooKeeper 脱离Hadoop,成为Apache顶级项目。

      " 2011年3月,Apache Hadoop获得Media Guardian Innovation Awards 。

      " 2011年3月, Platform Computing 宣布在它的Symphony软件中支持Hadoop MapReduce API。

      " 2011年5月,Mapr Technologies公司推出分布式文件系统和MapReduce引擎--MapR Distribution for Apache Hadoop。

      " 2011年5月,HCatalog 1.0发布。该项目由Hortonworks 在2010年3月份提出,HCatalog主要用于解决数据存储、元数据的问题,主要解决HDFS的瓶颈,它提供了一个地方来存储数据的状态信息,这使得 数据清理和归档工具可以很容易的进行处理。

      " 2011年4月,SGI( Silicon Graphics International )基于SGI Rackable和CloudRack服务器产品线提供Hadoop优化的解决方案。

      " 2011年5月,EMC为客户推出一种新的基于开源Hadoop解决方案的数据中心设备--GreenPlum HD,以助其满足客户日益增长的数据分析需求并加快利用开源数据分析软件。Greenplum是EMC在2010年7月收购的一家开源数据仓库公司。

      " 2011年5月,在收购了Engenio之后, NetApp推出与Hadoop应用结合的产品E5400存储系统。

      " 2011年6月,Calxeda公司(之前公司的名字是Smooth-Stone)发起了"开拓者行动",一个由10家软件公司组成的团队将为基于Calxeda即将推出的ARM系统上芯片设计的服务器提供支持。并为Hadoop提供低功耗服务器技术。

      " 2011年6月,数据集成供应商Informatica发布了其旗舰产品,产品设计初衷是处理当今事务和社会媒体所产生的海量数据,同时支持Hadoop。

      " 2011年7月,Yahoo!和硅谷风险投资公司 Benchmark Capital创建了Hortonworks 公司,旨在让Hadoop更加鲁棒(可靠),并让企业用户更容易安装、管理和使用Hadoop。

      " 2011年8月,Cloudera公布了一项有益于合作伙伴生态系统的计划--创建一个生态系统,以便硬件供应商、软件供应商以及系统集成商可以一起探索如何使用Hadoop更好的洞察数据。

      " 2011年8月,Dell与Cloudera联合推出Hadoop解决方案--Cloudera Enterprise。Cloudera Enterprise基于Dell PowerEdge C2100机架服务器以及Dell PowerConnect 6248以太网交换机。

    标签:Linux
    返回分页阅读

    本文导航:

    关注排行榜

    产品品牌

    文章推荐

    互动沙龙

    相关内容 网友评论 返回首页
    专家咨询