真实和完备是大数据分析的基础

真实和完备是大数据分析的基础

随着大数据时代的到来,网络数据的真实性问题日益受到关注。相较以抽样调查为主的小数据时代,在大数据时代,如何进行正确的数据清洗和数据分析,以便从海量信息源中获取真实而有价值的信息内容,并生成指向性清晰的决策指导,成为哲学社会科学界和自然科学界共同面临的课题。

数据来源:确保具备大数据品质

在中国人民大学新闻学院教授喻国明看来,高品质数据来源是确保大数据分析真实、可靠的首要条件。“根据国内外的相关技术发展情况分析,当前比较权威、可靠的大数据来源主要有两个,一是掌握多方面的社会运行数据的政府部门,二是在某一领域拥有数据采集能力的大型公司,如数字移动、网购、社交媒体、搜索引擎、输入法软件等公司。”

喻国明认为,大数据时代的一个重要特点,就是全方位、立体式的数据分析成为可能。“不过,单个部门或企业所掌握的大数据往往类别单一,对其的分析结论难免陷于零散、维度单一。”另外,从严格意义上讲,大数据不是政府、企业的“私有财产”,它与社会个体的权利和隐私密切相关,应当属于全社会。

那么,目前民间进行的大数据分析“靠谱”吗?上海交通大学舆情研究实验室主任谢耕耘介绍,如果对大数据来源进行分类,可以分为政府、大企业的定点监测,以及民间依靠软件等技术手段的数据挖掘。对此,喻国明这样评价:相对于政府部门与大型网络企业的大数据采集能力,仅仅从信息海洋中简单挖掘、捞取的部分所谓的“大数据”,远远不具备真正的大数据品质。

北京邮电大学互联网治理与法律研究中心主任李欲晓更愿意将大数据分析结果看作一种数据产品。“衡量其价值,关键在于它是否面向特定客户群提供了所需数据产品类型。”目前,社会各界已经意识到大数据时代的到来,许多机构和个人也在积极开发相关软件和产品,这个过程的最大价值,便是提升了全社会的大数据处理能力。

数据分类:建立更多有效标签

谢耕耘认为,通过搜索引擎的分析软件进行数据挖掘,是当前许多民间研究机构获取所谓“大数据”的主要途径。目前,付之应用的诸如“爬虫”等大数据挖掘软件,其作用是非常有限的——往往在只挖掘到几千条数据时,就被相关网络平台为防止机器人挖掘而设置的障碍所拦截,并被要求反复输入验证码。“因此,这种依靠软件来执行的数据挖掘方式,往往需要数十台、上百台服务器,以及高容量的带宽和大量的IP地址。”其挖掘所获得的大数据,通常是局部的、不完整的,难以推断整体状况。

从这个意义上看,尽管目前从事大数据分析的人力、机构很多,但真正做出可信服的研究成果的团队并不多。在李欲晓看来,当前的大数据分析尚未成熟,仍处于“成长期”。

责任编辑:蔡畅校对:杨雪最后修改:
0