「大数据」分析局限乃传统统计学问题

2017-03-23

 「大数据」已成为当今炙手可热的资讯科技,商务、医疗、社交、教育、政务等领域纷纷广泛采用「大数据」技术去深入分析相关的网络资讯,提升应用系统的智能及效率。举例而言,「智慧城市」是《2017年施政报告》的重点发展之一,香港资讯科技总监杨德斌指出,多个国际先进城市如纽约和巴塞隆纳的「智慧城市」规划都不约而同地围绕六大范畴而设,包括「智慧交通」、「智慧生活」、「智慧市民」、「智慧政府」、「智慧环境」及「智慧经济」。他进一步解释这些范畴如何利用「大数据」科技去改善市民的生活,刺激经济;由此观之,「大数据」可说是「智慧城市」计划的「主菜」。

「大数据」分析之潜在问题

  「大数据」的广泛应用源于美国。自从美国总统奥巴马2012年3月推出2亿美元的「大数据研究及发展计划」后,世界各大小经济体陆续仿效,大力投资相关领域。全球资讯科技企业亦不敢怠慢,积极推出适合的大数据资讯科技方案及产品,更大洒金钱推广大数据分析的优点及其所能带来的商机。据观察,近期不少从事金融、医疗、社会工作、工商业、政务等范畴主管都已被潜移默化,鼓吹「大数据」的功能及效益。然而,「大数据」真的是万能的吗?本文引用不同的国际专家报告,反映「大数据」分析之潜在问题。

  首篇报告题为《谷歌流感的比喻:大数据分析的陷阱》("The Parable of Google Flu : Traps of Big Data Analytics"),描述了谷歌公司曾利用「大数据」分析推算2011/2012年度美国流感的趋势,但结果却强差人意,估计的流感个案数目远超过实际数目。而谷歌利用的数据是来自用户使用的关键词(如「禽流感」)次数及分布作推算分析。专家认为构成严重误差的主要原因是谷歌盲目地广泛收集关键词,以为越多越好,却没有了解用户查询时的出发点,结果收集得的数据大部分来自非流感病患者,因此在数据采集阶段已严重犯错,自然推算失准。若数据分析全力集中在流感病患者,结果便会截然不同。

  第二位专家是美国加州大学柏克莱分校的国际知名学者米高佐敦(Michael Jordon)教授,他最近接受美国IEEE学会杂志访问,在题为"Machine-Learning Maestro Michael Jordan on the Delusions of Big Data and Other Huge Engineering Efforts" 一文中指出,「大数据」在现今商业市场被过分炒作,它最后可能只是一场空欢喜,教授更预测「大数据」的「冬天」即将来临。他认为「大数据」用户作出假设的速度将会超越大数据的统计范畴,在这情况下数据分析结果难免会出现错误,造成大量噪音,影响推算的可靠性。

  从另一角度看,「大数据」用户往往忽略数据的「动力」(dynamics)。例如在变幻无常的商务环境中,用户的需求不停在变,那麽昨天的「大数据」分析结果能有效地应用于今天的商务环境吗?能够满足用户今天的需求吗?若然不能,我们需要重新进行分析,但昨天采集商务数据的方法能满足用户今天的新需求吗?归根究底,什么时候开始分析及什么时候停止既是统计学应用的老问题,亦是「大数据」分析必须严肃面对的问题,但在千变万化的应用及数据环境下,要应对这个问题更是难上加难。因此佐敦教授进一步指出「大数据」分析服务提供者有责任清楚说明分析推算法的质量标准及其误差度,做好用户的「期望管理」(Expectation Management)。

「大数据」的十大局限

  「前车可鉴」,因此用户在使用「大数据」技术时不容掉以轻心,必须紧慎考虑它在操作上的「盲点」(局限性)。归纳而言,这些「盲点」大致是由于以下网络数据的不健康特性而産生:

  - 噪音性:网上数据泛滥,资讯内容五花八门,格式也参差不一。要从中过滤与应用需求无关的数据,既复杂亦耗时。

  - 真实性:由于网络资讯自由,即使在找出相关数据之后,内容的真假亦难以分别。例如去年在美国总统大选期间,在网络媒体上謡言满天飞,虚假新闻层出不穷,渗透全美每一角落;“教宗赞助特朗普”、“希拉里向伊斯兰国(IS)贩卖军火”等假新闻在《脸书》上的分享及点评率远比传统纸媒为高。然而,「垃圾入,垃圾出」(Garbage In Garbage Out),基于伪造资讯的「大数据」分析,难免会适得其反。

  - 代表性:真实的数据并不一定具代表性。若然系统错误地使用了缺乏代表性的资料作分析的话,结果便会弄巧反拙。

  - 完整性:利用非完整的数据进行分析,结果以偏概全,不尽不实,容易引致误判。

  - 时效性:某类数据在事件发生当刻可能大派用场,但当事件或时限过后,其影响力未必复再。若然过量的旧数据被用作分析,结果未能反映现况。再者,适时的数据往往因为比旧数据少而很容易被忽略。

  - 解释性:在「大数据」的分析过程中,基于输入的数据,算法便会产生及输出分析结果。在分析过程中,数据输入如何产生输出的理据及两者的因果关系并不清晰,如黑箱作业。

  - 预测性:世事变幻莫测,以前从未发生过的意外絶不罕见,但却难以预料(分析出来)。因此,有专家认为「大数据」分析是规范的(prescriptive)而不具预测性(predictive)的功能。

  - 误导性:使用假资讯或错误分析算法均会影响结果的可靠性。「尽信书则不如无书」,未经核实及验证的分析结果可能会造成严重的反效果。

  - 合法性:数据内容、采集方法及其使用过程极有可能涉及个人私隐、商业机密及公众权益等资讯。因此,资讯的安全性和合法性对「大数据」应用十分之关键,可是不少企业只顾赚钱,而罔顾这些因素。

  - 价值性:「大数据」不是免费的,企业切忌盲目跟风。数据本身、分析软件等均所费不菲,因此成本效益的衡量是企业采用「大数据」的另一关键考虑点。

推广「大数据」缺乏人才

  有数学专家指「大数据」实际上只是统计数据系统的升级版而已,上述的「盲点」问题,在统计学上早已解决过,而方案亦适用于今天「大数据」应用。笔者不完全同意这观点。从统计技术而言,这观点确实无可口非。首先,应用这技术在「大数据」范畴时,用家必须彻底关注上述统计学的基本问题,避免出错。再者,在应用层面,「大数据」比纯统计复杂,是一门跨领域、应用主导的工程课题。要有效地使用「大数据」技术很需要领域知识及经验的适当配合,絶对不能单靠统计分析理论。

  所以,推广「大数据」的樽颈在于缺乏人才,在现今职场中熟悉统计学或个别应用学问的大有人在,但要聘请精通两者而具多元知识的人才絶不容易。正因如此,香港各大学近年相继推出数据科学(Data Science)课程,培养高质素的「大数据」精英。

下载
相关文章 / Related Articles

香港学生反修例运动中网络关系解体的实证调查

宋昭勋、吴静、胡欣立
2021-01-11

警队与社交媒体

黄子健、马伟杰
2017-05-08

2016年度新闻与社交媒体使用行为调查

马伟杰 周展梁 叶诗颖 伍淑冰 梁俊仁
2016-09-21