首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

ChatGPT 可以在急诊室挽救生命,但它需要监督:“它比你见过的任何人都更聪明也更笨”

GPT-4 (Generative Pre-trained Transformer 4) 是 ChatGPT 的继任者。它于 2023 年 3 月 14 日面向有限观众发行。Jaap Arriens/NurPhoto via Getty Images    

lGPT-4 是 OpenAI 发布的最新人工智能技术。

l它比 GPT-3 更先进,可以帮助翻译、总结和处理医疗信息。

l技术专家表示,它可以帮助挽救生命,但不应在没有人工监督的情况下使用。

GPT-4 是 OpenAI 提供的人工智能模型的最新和最先进的版本——OpenAI 是非常成功的 ChatGPT 产品的制造商——医生说它可以颠覆我们所知道的医学。

虽然我们已经知道之前的 GPT 版本 3.0 和 3.5 可以在 MCAT 上获得可靠的分数,但现在专家表示 GPT-4 也可以在现实世界中拯救人类生命,快速而巧妙地治疗急诊室患者。

在即将于 4 月 15 日以电子书形式提供或 5 月 3 日印刷版的即将出版的“医学人工智能革命”一书中,一位微软计算机专家、一位医生和一位记者联手试驾 GPT-4 并了解其医疗功能. (微软已经向 OpenAI 投资了数十亿美元,尽管这本书的作者说它是在编辑独立的情况下编写的。)

三位专家——微软研究副总裁 Peter Lee、记者 Carey Goldberg 和哈佛大学计算机科学家兼博士 Isaac Kohane 表示,这个目前只对付费用户开放的新 AI 比之前的聊天机器人更先进,也没有那么傻。.而且它非常擅长消化、翻译和综合信息,以至于他们说它可以用于急诊室以节省时间和挽救生命——今天。

“我们现在需要开始理解和讨论 AI 的潜在好处和坏处,”该书的作者敦促到。事实上,他们建议,无论我们是否知道,它可能已经在某些医疗环境中使用。

GPT-4如何拯救生命

在 2016 年 5 月 6 日星期五的一张照片中,住院医师 Cameron Collier 医生在看望病人时向一群住院医师和医学生做简报。Gerald Herbert/AP Images

在这本书的开篇,作者提供了一个假设的——但完全可能的——住院医师和 GPT-4 之间的交互,作为该技术肯定会很快被医生和患者使用的证据。

首先是想象中的病人处于危急状态,他的心率飙升,血压骤降,脸色变得苍白,然后变成蓝色,大口喘着粗气。他的护理团队将“一个又一个注射器”插入他的静脉注射器,试图提高他的血压并改善他的心脏功能,但似乎没有任何效果。

一位二年级住院医师掏出手机打开 GPT-4 应用程序,向 AI 寻求建议。她向机器人解释说,该患者对血压支持“没有反应”,并提到他最近接受了血液感染治疗。最后,她恳求人工智能,“我不知道发生了什么,也不知道该怎么办。”

机器人立即回复一段连贯的段落,解释患者可能崩溃的原因,提到最近的相关研究,并建议进行白细胞增强输液治疗。居民意识到 AI 暗示该患者可能会患上危及生命的败血症。如果是这样的话,他需要那种药,快点。

居民迅速从医院药房订购了 AI 建议的输液,然后 - 批判性地 - 仔细检查机器人告诉她的内容,对着她的手机说“给我看”这项研究。

“不知何故,她觉得自己就像一位仁慈的导师兼仆人,掌握着世界上几乎所有的医学知识,握着她的手,”作者在书中想象到。住院医师为患者开具处方后,她再次使用 AI 自动完成保险所需的文书工作,这大大节省了时间。

“从诊断到医疗记录再到临床试验,几乎任何你能想到的方式,它的影响都将如此广泛和深刻,以至于我们认为我们现在需要开始思考我们可以做些什么来优化它,”该书谈到 GPT 时说-4。

最近几周,其他专家对 AI 应用于医学各个领域的前景表达了类似的兴奋和恐惧。

“这确实是医学界一个非常激动人心的时刻,‘革命’这个词正在成为现实,”内科医生 Eric Topol 在评论这本新书时在他的博客上写道。

GPT-4 在医疗环境中并不总是可靠

GPT-4 听起来像是医学的未来,但有一个问题。GPT-4 仍然会犯错误,有时它的反应会在原本合理的医疗建议中出现细微的错误。专家们强调,在没有人工监督的情况下,切勿使用它。

AI 给出的错误答案“几乎总是看起来是正确的”,这本书说,对于未经训练的人来说可能被认为是有说服力和合理的——但最终可能会伤害患者。

这本书充满了 GPT-4 失误的例子。作者注意到 GPT-4 在不太清楚该做什么时仍然会编造东西。

“它比你见过的任何人都更聪明也更愚蠢,”他们写道。

GPT-4 也会犯笔误,比如抄错东西,或者犯直接的数学错误。因为 GPT-4 是一个机器学习系统,并不是由人类主动编程的,所以我们不可能确切知道它何时以及为什么会出现这些问题。

作者建议读者进行一种潜在的交叉检查以帮助解决系统中的错误,即要求 GPT-4 检查自己的工作,这种策略有时会发现错误。另一种是命令机器人向您展示它的工作,这样您就可以验证它的计算,人类风格,或者要求机器人向您展示它用来做出决定的资源,就像医学生在假设情况下所做的那样。

“它仍然只是一个计算机系统,”作者总结道,“基本上不比网络搜索引擎或教科书好。”

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230410A07QS700?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券