首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

自杀怎么预防?加拿大要用这个神奇的新技术征服世界!

加拿大政府正在与一家专门从事社交媒体监测和人工智能的公司商讨, 请他们协助预测自杀趋势,以求提前预测那些可能出现自杀高峰的地区。

渥太华的Advanced Symbolics Inc.是一家人工智能和市场研究公司。

它与大多数公司的不同之处在于,不是通过打电话等方式征询民意,而是通过识别和跟踪社交媒体帐户来建立一个有代表性的人口样本。

此外在调查规模上他们数据分析所依据的样本也要大得多。通常大多数电话调查都是随机抽取约1500人,但该公司的加拿大人口样本则扩展为超过16万个社交媒体账户。

成功预测了美国大选、加拿大大选和英国脱欧等重大事件

正因为使用了这种高科技的统计方法,使其能够在其它民意测验不准确, 甚至失败的情况下,可以异军突起,成功地预测了特朗普,特鲁多和英国脱欧等重大事件的结果。

Advanced Symbolics 公司的首席执行官埃里恩·凯利(Erin Kelly)表示:“我们是世界上唯一准确预测了英国脱欧,希拉里和特朗普选举以及2015年加拿大大选的研究公司,而且不侵犯任何人的隐私”。

他说,这是因为他们的统计是通过人工智能寻找趋势,而不是个体情况。这点在涉及到很个人的问题时就非常重要,例如“自杀倾向”的预测。

精神健康问题令人担忧

在加拿大,近年来精神健康问题越来越引起各方的关注。每年因各种原因自杀的有4000多人,也是导致年轻人死亡的第二大原因。

为了防止自杀,政府部门、社会团体都开设了帮助热线;社交媒体上也有不少可以使用的应用程序。

有心理学专家统计过,目前可以在手机上下载的心理健康应用程序多达700个,但他们的质量参次不齐,有的防止自杀软件甚至提供危险的信息。

但自杀是一种长期的个人心理行为,又具有很高的隐私性质。

Advanced Symbolics 公司的技术总监肯顿·怀特说, 他们创立的系统的主要难题之一也是不要违反《隐私法》的相关条文。

他说:我们这种不会违法隐私的技术有一些标准,也提供给加拿大统计局和其它收集个人信息的机构使用。我们不针对任何个人,而是只观测群体样本,这个群体有16万人。

试想如果我们建立一个系统,监测人们在社交媒体上所说的话,然后有一天政府部门与某人联系说:’你好,我们电脑系统的人工智能分析显示你可能会自杀’,这会不会让人觉得怪异。

因此,我们的人工智能系统只通过综合社交媒体上的信息,标志出可能发生多起自杀事件的社区或地区。像去年新斯科舍省布雷顿角岛地区连续有三名青少年自杀就很令人震惊。

怀特说:“布雷顿角发生的这起事件,是不幸的,我们可以从事件中学习,创建一种模式。我们也可以从萨斯喀彻温省发生的事情,从来自北方原住民社区发生的事情来创建不同的模式,还可以创建适合大学生的模式”。

怀特补充说:“我们并不会违反任何人的隐私 – 因为数据都是建立在公开信息基础上。我们在社交媒体上创建具有代表性的人群样本,观察他们的行为而不会对其产生干扰。”

在自杀发生之前采取预防行动

在去年新斯科舍省布雷顿角自杀事件发生后的几个星期里,省政府曾向该地区派出了更多的咨询员和精神卫生专家。但那时的主要工作已经不是预防自杀,而是减轻自杀事件对相关人士和社会的负面影响。

根据Advanced Symbolics公司的介绍,他们通过社交媒体搜集数据,在自杀发生之前,人工智能系统可在两到三个月前发出警告,这些警示若分享给政府官员,就可以促使他们在危机发生之前调动精神卫生资源,而不是事后。

这个公司已确定从1月份开始分析和确定与自杀相关的语言等信号,而真正的监测将在2018年晚些时候开始。

新斯科舍省自杀学生的母亲 © CBC/Gary Mansfield

AI能预测自杀是善意吗?

在当今高度互连的世界中,我们不断产生和收集如此庞大的数据量,甚至已经超出人类能力所能全部过滤筛选的范围了。

确实,人工智能的应用之一就是辨识这些贴文上的意图所表现出来的模式与偏差。

因此,Facebook以这种方式运用AI,从其大数据(Big Data)数据库中撷取价值,虽然可能是出于善意的目的,但也引发对于道德感的顾虑。

除了法规的问题,Facebook的自杀侦测途径设定了一种“道德的雷区”(Ethical minefield),因为后果是如此的强烈。

但这并不表示该公司所做的“必然是不道德的”,实际上还取决于“他们如何处理这些资料”,以及Facebook是否“值得我们信任”。

目前,这是个悬而未决的问题

当Facebook的营利模式是基于有选择性的信息共享时,是否还能让我们相信它真的将自杀信号数据用于防范自杀以及改善社会问题的目的。

为了证明其出于善意,Facebook应该尽快提供“信息如何分享的程度”,详细说明他们如何使用这些数据,以及如何保有其安全性。

但是,Facebook的立场是我们只须要相信他们。

很多人都赞成运用数据和算法来防范自杀的发生,并指出“危机求救热线”(Crisis Text Line)采用该方法来优先考虑对最紧急的情况做出反应。

我们能够信任Facebook是合乎伦理道德的吗?

由于社交媒体平台能够取得太多有关于我们的信息,现在必须提出这个问题。它不仅能从我们的历史讯息中辨识个人行为标准的“模式”,还可能根据朋友的贴文推断我们并未分享的信息。

我们的社会从来没有经历过这种范围缩小到个人层级的“监控”精确度,再加上这是一个“数百万Facebook账号”的庞大社群。

如今,在这个全新的数据新世界,我们必须积极地寻找“道德的界线”。

Facebook在开发一项AI功能:通过对用户的内容分析,筛选其自杀行为或可能性。研究院的医生、美国退伍军人事务部,都作为试点在尝试这项功能的能力。

他们试图建立一个由AI驱动的自杀预防平台,捕获更多数据,并希望建立预测模型,以更早地对有自杀倾向的人进行干预——要知道,比起抢救一位已经自杀的人,预防才是更重要的事儿。

在人工智能的自动化筛选预防系统真正实现之前,我们也有更多的方式去帮助他人。现在切换到你的手机百度App,搜索“自杀”试试看?

我们相信在未来,AI将能做到更多、更好。

从大脑的共振分析你的意图

2014年,美国的自杀率已经飙升到了30年以来的最高点,自杀成为当代年轻人的第二大死因。如果你能进入某人的大脑,看看在什么时候这种黑暗的想法可能会被付诸行动,一切会变成什么样呢?

目前,科学家正试图通过大脑扫描技术和人工智能来帮助这些有自杀倾向的人。

在《自然人类行为》(Nature Human Behavior)发表的一项研究中,卡耐基梅隆大学和匹兹堡大学的研究人员通过观察人脑在功能磁共振成像仪中呈现的结果,分析了自杀个体对生命和死亡的看法、感觉与常人有何不同。

然后,研究人员开始训练机器,让机器学习对应的算法来隔离这些信号,比如提到“死亡”一词时会出现的额叶闪光现象。

算法分类器能筛选出那些有自杀想法的人,准确度超过90%。此外,它还能区分试图真的伤害自己的人和那些只是想想却未付诸行动的人。

事实上,这类功能磁共振研究都受一些人尽皆知的缺点的影响。

这项研究的样本量太小,只有34名受试者。就算该算法可能在这些受试者的大脑中发现特定的斑点,那也不等于说它在更大的群体中也能有这么高的准确率。

功能磁共振研究的另一个困境还在于:仅仅因为两件事情同时发生并不能证明是其中一件事引起了另外一件事的发生。

如此一来,这类研究就要担心出现同义反复的问题:科学家认为大脑的特定区域承担了某些特定功能,然后当他们观察到一系列人为挑选的触发器点亮了这些区域时,一开始的猜测得到了证实。

今天的研究选择了17位年龄在18至30岁之间的年轻人作为对象。

这些人最近都曾向自己的心理医生提到过有自杀的念头。

研究人员还另外招募了17位“神经学典范”作为对照组参与研究,接受功能磁共振扫描(神经学典范泛指无神经学特异表现的人,即无自闭症、阅读障碍、发展性协调障碍、双相情感障碍、注意力缺陷过动症,或其他类似情况的人)。

在扫描仪内,受试者会依次看到30个单词组成的随机序列。

其中10个单词一般被当做正面词汇,10个一般被当做负面词汇,还有10个单词和死亡、自杀联系在一起。

然后研究人员会要求受试者看着面前屏幕上显示的每个单词,思考三秒钟:“对你来说,什么是‘麻烦’?”“‘无忧无虑’的关键是什么?”针对每一个词,研究人员都会分别记录受试者的大脑血流量,看他们大脑的哪些部分似乎是在运作。

两组受试者思考“死亡”一词的功能磁共振扫描结果。左:以前曾尝试过自杀的人。右:对照组。图源:卡耐基梅隆大学

随后,研究人员将这些脑部扫描结果导入机器,让机器学习算法。

针对每一个单词,研究人员都会告诉算法哪些扫描结果是有过自杀念头的人,哪些属于对照组;最后研究人员会随机挑出一个人,不让他的扫描结果出现在算法训练中。

分类器学会很好地把这两类人分开之后,研究人员就会让它去对之前随机留下的那个人的扫描结果进行分类。

研究人员要重复完成这30个单词,每次都要把一位受试者的扫描结果排除在算法训练之外。最后,分类器查看扫描结果,可以较准确地说明该人是否有过自杀的念头,准确度达到了91%。

甚至还有其他专家开始在上游进一步挖掘数据。公共卫生研究人员正在查看谷歌搜索结果,希望能找到自杀想法增加的证据。

脸书也正在扫描用户上传的照片和直播视频,寻找那些预示着自我伤害风险的单词组合。美国退伍老兵事务管理局(VA)目前正在试用一种应用程序,它能被动拾取那些昭示抑郁症及情绪波动的声音线索。

Verily生命科学部门正在寻找智能手表和抽血过程中可以预测自杀倾向的生物标志物。

这些努力都是因为我们想要主动出击,找到互联网和社交媒体上那些有自杀倾向的人,而不是等他们什么时候走过医院门口或是去做功能磁共振成像扫描的时候才知道我们要对他们伸出援手。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180107B0JT2700?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券