你好,游客 登录 注册 发布搜索
背景:
阅读新闻

大数据有用 只是不太好用

[日期:2014-03-25] 来源:比特网  作者: [字体: ]

  大数据这个词现在已然不再是IT圈的“专利”了,从去年的春晚,到刚刚过去的两会,都能见到它的身影,但实际上春晚与两会的数据都只能叫做小数据,它与真正的大数据还相差甚远。即便如此,数据所产生的价值已经被人们所认知。

  就大数据来说,它的发展可以分成三个阶段,第一个阶段是组织内部的数据,这些数据通常都是结构化的数据,我们一般将这些数据进行分类、排序等操作,将相同类型的数据进行对比、分析、挖掘,总而言之基本上都是统计工作。到了第二阶段,数据的范围扩大到行业内,各种各样的应用数据出现,数据量大规模增长,尤其是非结构化数据的出现。典型的像视频、图片这一类的数据,在这一阶段的特点就是非结构化和结构化数据并存,且数据量巨大,要对这些数据进行分析是我们目前现阶段所处在的状态。

  第三阶段则是未来大数据发展的理想化状态,首先它一定是跨行业的,且数据的范围是整个社会。通过对这些数据进行分析加以使用,将直接改变我们的生活方式,这也是现在很多企业所设想的未来交通、医疗、教育等领域的发展方向。

  大数据太大不敢用

  第三个阶段是我们所憧憬的,但在我们所处的第二阶段面对的更多是问题。其中的一个问题就是“大”。大数据给人最直观的感受就是大,它所带来的问题不仅仅是存储,更多的是庞大的数据没办法使用,以交通为例,从2001年开始在北京的主干道上都增设了一些卡口设备,到了今天基本上大街小巷都能看到。

  这些设备每天所拍摄的视频及照片产生的数据量是惊人的,仅照片每天就能产生2千万张,而解决这些数据的存储只是最基本的任务,我们更需要的是使用这些数据。例如对套牌车辆的检查,对嫌疑车辆的监控,当你想要使用这些数据的时候,传统的数据库以及系统架构,放进这么庞大的数据,是根本跑不动的。这一问题导致很多企业对大数据望而却步。

  大数据太难不会用

  说到大数据的使用,自然离不开Hadoop,Hadoop本身提供了分布式系统中两个最重要的东西:分布式存储(HDFS)和分布式计算(Mapreduce)。这两者解决了处理大数据面临的计算和存储问题,但更为重要的是,为开发大数据应用开辟了道路。

  Hadoop是目前解决大数据问题最流行的一种方式,但其仍然有不成熟的地方,曾作为雅虎云计算以及Facebook软件工程师的JonathanGray就表示:“Hadoop实施难度大,且复杂,如果不解决技术复杂性问题,Hadoop将被自己终结。”正是由于这样的原因,Gray创办了自己的公司——Continuuity,这家公司的目标就是在Hadoop和Hbase基础上创建一个抽象层,屏蔽掉Hadoop底层技术的复杂性。由此可见想要用好大数据又是一大考验。

  大数据太贵用不起

  Hadoop的特点就是让你可以使用廉价的x86设备来完成大数据的业务,但事实上如果你真想要用它来完成某些商业任务你还得是个“土豪”。在国外那些使用大数据的成功案例里,亚马逊曾给出过这样一组数字,NASA需要为45天的数据存储服务支付超过100万美元。像Quantcast这样的数字广告公司,同样也是花费了巨额的资金用在Hadoop技术上,来根据自己的需求定制系统。从上面两个案例来看用于商业用途的大数据现阶段还是很费钱的,随着大数据软件环境逐渐成熟,开发工具增多,价格在未来会逐渐降低。

  从上面罗列的这三点困难,其实并不是要给大数据泼冷水,而是想说大数据想要淘金并不简单,首先在做大数据之前,好好盘点一下自己拥有的资源,不仅仅是数据资源,还包括知识与技能。确定了自己的能力之后,选择一个能够发挥你现有资源最大价值的项目。如果你需要帮手,应先考虑商业顾问,再考虑技术人才。为了解答一个生意上的困惑花下的钱,叫作投资,而把钱投到一个拥有特殊技能的IT人才身上,那就叫沉没成本。当你有了这些之后,选择更灵活且可扩展的工具,为以后的扩充打好基础。更重要的是——从小规模做起。

 

  也许不远的将来,大数据分析会成为企业必备技能。但那一天还远远未曾到来。当那些供应商花了上百万美元布局大数据分析时,你可以放心,你并没有错过什么。而且你的钱花到了更需要的地方,获得了更多的效率和价值。

收藏 推荐 打印 | 录入:574107552 | 阅读:
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款