首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

大数据中的因果关系及逻辑理论的产生

大数据是近年兴起的概念,大体上是指通过一系列精炼、提取、分析,从庞杂、无序、多维的信息中获取情报的一种方法。大数据研究让我们有能力驾驭海量信息,使得以往变化莫测、捉摸不透的自然、社会现象,变得模式凸显,有章可循。这不仅让许多科学猜想获得实证检验的机会,也极大地加速了新理论、新假说的产生。

大数据

大数据 “大”的原因有两方面:一方面是在同样的参数、变量的情况下,尽可能增加观察、记录的次数,从而扩大数据规模;二是在同一次观察、记录中,尽可能地增加参数、变量的数目,也同样能扩大数据规模。在现实研究中,这两个因素经常同时相互起作用。然而,数据规模虽可无限扩大,但仍非决定人们因果推断能力的根本因素。问题不妨这样看:随着观察次数增加,基于某个统计模型的估计值,其精确度就有可能不断提高。然而,问题在于是否观察次数越多,这个模型就可以自动消除因为某个变量缺失而带来的计算偏差。举个简单的例子:假设在一座城市有甲、乙两家医院,通过数十年不间断的数据收集,我们发现在去过两家医院的患者中,甲医院死亡率非常高,而乙医院死亡率很低,那么,我们是否就可以得出甲医院差,而乙医院好呢?答案是否定的!因为我们忽略了一个重要的外生变量,即甲医院级别更高,收治了更多病情严重的病人;而乙医院级别较低,只能治疗一些小病。这就是统计学上所谓的“遗漏变量偏差”。可见,即使我们积累了数十年多次观察的数据,仍可能未触及最根本因果问题。因此,解决问题不在于大数据的“大”,而更在于是否在数据采集和统计模型选择时有较高层次的理论指导。

另一方面,如果说增加观察次数并不会实质提高发现因果关系的可能性,那么是否可以在同一次观察、记录中,尽可能增加相关参数、变量的数目、种类,来改变这种状况?此想法看似合理,但仍不完全可行。虽然通过各种复杂精妙统计学方法,可以把复杂的数据降维,得出有价值的线性回归模型;姑且不论随着变量增加,是否对统计模型产生影响,最核心的问题还在于这样的研究存在一个前提假设,即观察、记录的变量必然包含了能够引发因果关系的所有变量,但事实往往并非如此。这种因果推断似是而非,但颇受欢迎。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180214A0SH8U00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券