首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

ChatGPT和其他大型语言模型是医学双刃剑

SDI数字创新,专注Metaverse前沿洞察和专业服务。

要点

提要:本期SDI前沿洞察为您带来Yiqiu Shen等学术发表在医学旗舰期刊《放射学》上的文章。

大型语言模型 (LLM) 是经过训练以理解和生成自然语言的深度学习模型。最近的研究表明,大型语言模型在广泛的自然语言任务中取得了巨大的成功,例如自动摘要(生成一段文本的压缩版本)、 机器翻译(自动将文本从一种语言翻译成另一种语言)和问答(构建基于一段文本回答问题的自动系统)。

由于两个因素,大型语言模型能够很好地完成这些任务:首先,大型语言模型建立在Transformer之上,这是一种具有许多参数的最先进的神经网络架构。Transformer的主要新颖之处在于它的自注意力机制,它使模型能够更好地理解输入的不同元素之间的关系。

其次,大型语言模型采用两阶段训练管道来有效地从数据中学习。在最初的预训练阶段,大型语言模型使用自我监督的学习方法,使他们能够从大量未注释的数据中学习,而无需手动注释。与传统的完全监督的深度学习模型相比,这种能力具有显着优势,因为它消除了对大量手动注释的需求并实现了更大的可扩展性。在随后的微调阶段,大型语言模型将接受针对特定任务的小型、注释数据集,并利用他们在预训练阶段获得的知识来执行最终用户预期的特定任务。因此,大型语言模型使用最少的人工提供的标签在各种任务上实现了高精度。

ChatGPT是由人工智能研究和部署公司 OpenAI 推出的对话式人工智能系统。ChatGPT 基于 GPT-3.5模型,它是迄今为止最大的大型语言模型(>1750 亿个参数)之一,并共享其许多功能。它接受了一组不同的互联网文本(约 570GB)的训练,包括书籍、文章和网站,并涵盖了广泛的主题,如新闻、维基百科和小说。此外,ChatGPT 专门针对会话任务进行了微调。特别是,ChatGPT 通过强化学习从人类反馈中进行训练,包括来自筛选和标记有毒文本的数据。这种技术允许 ChatGPT 根据人类评估者的输入调整其行为。因此,ChatGPT 在理解用户意图、生成类似人类的文本以及保持对话连贯性方面要好得多。

尽管具有优势,但 ChatGPT 也有一些局限性。ChatGPT 的一个限制是它可能会产生看似可信但不正确的响应,例如发明它需要熟悉的术语。这种现象被称为“幻觉效应”,是许多自然语言处理模型中的常见问题。此外,ChatGPT 倾向于遵循说明而不是进行真正的交互。例如,当用户提供的信息不足时,ChatGPT 倾向于假设用户想听什么,而不是提出明确的问题。

因此,ChatGPT 和其他大型语言模型可能会带来意想不到的后果并成为一把双刃剑。本文提供了几个用例来说明这些工具在临床环境中的潜在作用及其对医学新闻的潜在影响。

自电子健康记录 (EHR) 出现以来,人们一直在推动使用 EHR 中包含的技术和知识来指导提供者的决策。临床决策支持 (CDS) 是一种用于增强与健康相关的决策和行动的过程。CDS 通过优化临床决策和临床流程赋予临床医生、患者和其他利益相关者权力,旨在提高医疗服务质量和患者结果。

近年来,人们越来越关注通过基于 EHR 或作为附加软件的 CDS 系统来提高提供者订购放射成像检查的准确性。2014 年的《保护获得医疗保险法案》强调使用临床决策支持机制来确定成像命令是否符合门诊和急诊科医疗保险受益人的适当使用标准。

随着人工智能技术的发展,一个新的问题出现了:基于人工智能的技术能否提供影像适度指导?ChatGPT 等基于 AI 的聊天机器人可以利用庞大的知识库快速回答有关特定临床场景中最佳影像学研究的问题。然而,与任何新技术一样,都有一些风险。虽然 ChatGPT 可以提供一些指导,但它被设计为不提供直接的医疗建议。它经常根据集成到其技术中的安全规则将医疗决策推迟给医疗保健专业人员。

所以,用户必须精心设计问题或提示,提供有关临床情况和潜在禁忌症的具体信息。如果没有详细的提示或限制答案的可能性,ChatGPT 通常会给出不准确或不完整的结果。此外,基于人工智能的技术提供的答案的准确性取决于用于训练它的数据的质量和类型。提供者需要了解此数据中的潜在偏差、不准确或误解。最后,在 EHR 之外使用基于 AI 的技术可能会错过利用患者信息以及提供者和机构订购偏好、能力和限制来帮助护理点决策的机会。

人工智能可能被滥用于不道德的目的,例如伪造图像——一种科学不端行为,涉及通过操纵的数字或图像故意歪曲研究结果。自动检测算法已被用于通过识别伪造(例如拼接、复制移动、删除和增强)图像。然而,人工智能图像处理系统的进步,如 DALL-E 2和稳定扩散,使得机器可以从自然语言描述中创建逼真的图像,从而让现有检测任务更具挑战性。尽管 ChatGPT 目前仅限于生成纯文本,但不当行为者可以使用基于文本的图像生成器来生成具有真实变化的伪造图像,甚至可以逃避检测算法,从而使准确检测变得更加困难。未来的研究应侧重于开发更先进的检测系统,以识别操纵痕迹。

在我们做出有关使用 ChatGPT 等基于 AI 的技术的决定时,谨慎行事很重要。尽管存在这些挑战,利用这项技术的力量进行临床决策支持甚至成像适当性仍具有巨大潜力。考虑 ChatGPT 和类似的基于 AI 的技术为未来存储的可能性是令人兴奋的。

SDI近期直播,敬请关注!

看更多精彩内容 请点击下方视频号

往期前沿

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230216A00K2R00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券