首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

北邮在线:拯救生命的AI,算法识别高自杀风险人群

预防自杀的文献认为,社区里会有这么一类人,当有社区成员表达自杀的想法时,他们可能会提供帮助,他们被称作“守门人”。这个名词没有一个十分严谨的定义范围,通常情况下,“守门人”包括教师、家长、教练和年长的同事——当他们看到身边人出现心理问题时,具有某种形式的权威和干预能力。

当用户搜索自杀方法相关的关键词时,谷歌会突出显示全美预防自杀生命线(National Suicide Prevention Lifeline)的电话。但这绝不是万无一失的方法。谷歌可不能编辑具体的网页,它只能编辑搜索结果,这意味着当有人想找自杀方法时,他可以很轻易地通过链接、论坛等方式找到,压根儿不用搜索引擎。与此同时,在现如今的互联网上,“碾压”更可能是粉圈的拉踩表达,而不是真正的呼救,但机器可能无法理解其中的细微差别。当人们不使用英语、使用其他语言搜索时,谷歌的人工智能在检测自杀意念方面的效率也要低得多。

总的来说,搜索结果是一个有用但过于泛泛的干预方法,可以作为预防策略应用起来。毕竟,任何人都可以以任何理由搜索任何东西。

谷歌对算法预防自杀的最新尝试更有针对性——针对那些正在寻求帮助的人。目前,那些想得到自杀援助的人需要排队等待。Trevor的平均等待时间很短,不会超过五分钟,但在某些紧急情况下,一秒都耽搁不得。Trevor的领导团队希望,随着对人工智能的开发,它最终能够通过分析来电者对第一个问题的回答,识别出自杀风险高的来电者,并立即把这个电话转接给人工咨询师。

谷歌将使用两个数据点进行人工智能训练:青少年与咨询师对话的初始阶段,以及咨询师与他们交谈后完成的自杀风险评估。其理念是,通过对初始阶段与最终风险评估的数据进行对比,人工智能能够根据最早的反应预测自杀风险。

算法具有识别未知模式的惊人潜力,但要成为一名优秀的“守门人”,关键是当出现问题时,要向前推进并进行干预。尽管在某些方面,我们已经做到了,但这究竟是不是我们真正想要融入技术的那些方面还尚不可知。加拿大和英国的公共卫生计划挖掘社交媒体数据来预测自杀风险。在Facebook,一旦算法检测到视频中出现自残或暴力行为,就会迅速标记该直播视频,发送给警方。

我们在谷歌搜索“怎么缓解宿醉”,也搜索医疗建议,更搜索“如何从失恋中恢复过来”,我们用谷歌了解一切。搜索结果可能是混合了不相关信息的,甚至可能是误导性的,但是搜索本身并不会对此做出判断。

Trevor Project的作用就在于此。最终,这个非营利组织的领导团队希望设计出这样一个人工智能系统:它能够预测LGBTQ年轻人们将需要什么资源——住房、出柜帮助、心理治疗——所有这些都是通过分析聊天中头几条信息来实现的。长期来看,他们希望人工智能能够进化,能够识别元数据中的模式,而不仅仅是扫描初始消息。例如,如果人工智能能够从消息中确定来信者的教育水平等信息,那么它能否推断出这些结构性因素对自杀风险的影响?

一堆令人眼花缭乱的“如果,那么”语句看上去不可能挽救一个人的生命,但相信很快,它就可以了。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190814A094Q400?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券