首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

肿瘤智能决策:热潮中的冷思考

【引用本文】江泽飞,李峰,许凤锐.肿瘤智能决策:热潮中的冷思考[J].中华外科杂志,2019,57(2):85-87.

肿瘤智能决策:热潮中的冷思考

江泽飞 李峰 许凤锐

{解放军总医院第五医学中心乳腺肿瘤内科}

近年来人工智能(artificial intelligence,AI)技术发展迅速,并得到政府的大力支持[1],智能医疗是其中颇具发展前景的领域之一。以乳腺癌为例,从初诊的影像学检查,到病理学检查明确诊断,从辅助医师制定治疗方案,到解读基因检测结果,均可以看到AI探索的身影[2]。但在热潮掀起的同时,也可以听到呼吁对其进行"降温"的声音[3]。伴随种种疑问,我们认真思考智能医疗的发展现状,结合自己在临床工作中探索智能决策的体会,就目前智能决策中存在的问题提出一些冷静思考,供同行批评。

一、是否应将"延长生存时间"作为衡量AI应用价值的标准?

目前,关于如何衡量AI在疾病诊断、治疗中的应用价值,争论不断。患者生存指标(如无病生存、总体生存等)的提高是新药研发的主要目标,也是治疗疗效提高的直接量化指标,但是否能将其直接应用于AI评价仍待商榷。为了正确评价AI的价值,我们需要明确目前智能医疗的真实定位。

AI通常包括辅助智能、增强智能和自主智能,而智能医疗主要体现在辅助智能和增强智能两个方面。辅助智能方面,AI的应用主要表现为高效、精准地收集、分析医学数据;如Watson for genomic可以接收患者的肿瘤活检基因学检测报告,通过强大的认知与计算能力,发现与病情发展情况相关的基因突变,并提供针对这些突变的可选治疗方案列表,从而帮助医师更快速、更全面地掌握患者个体化信息,做好辅助诊疗工作[4]。增强智能方面目前也有初步的探索;法国学者用癌症患者的CT图像训练AI,使其可以通过无创的CT影像准确预测PD-1抑制剂治疗效果[5],这突破了既往仅仅依靠病理学检查从分子水平预测免疫治疗疗效的传统认知,为临床诊疗提供了新的思路。

可以看到,就辅助智能和增强智能两个方面,相较于提高生存,AI的价值更多地体现在帮助医师节省精力并查漏补缺,可在一定程度上提高医师对指南或规范的依从性。因此,基于准确性和规范性的指标(如指南符合率等)应该成为现阶段评价AI的主要标准。

二、如何进行AI的本地化?

尽管AI在医疗领域的应用具有巨大潜力和可预见的众多益处,但现阶段AI的本地化还存在一些难题。

1.数据本地化:

AI的技术基础是深度学习,需要接受海量数据的训练才能实现最好的应用效果。一款成熟的智能医疗产品往往需要大量的临床数据,且该数据需具备较高的质量。以沃森肿瘤为例,虽然它已在美国、泰国、印度、中国、日本等国有较大范围的应用,但其基础训练数据主要来自美国纪念斯隆凯特琳癌症中心;这样一款基于单中心数据和治疗习惯的智能系统,能否直接应用于疾病特点、诊疗习惯、经济水平甚至风俗习惯等有较大差异的其他中心有待商榷[6]。例如,受不同医疗保险政策的影响,美国医师诊疗时主要考虑的因素为方案的疗效和不良反应,而我国医师还要考虑治疗的"效价比";指南的差异对诊疗习惯也有影响,中国临床肿瘤学会乳腺癌诊疗指南对同一阶段、同一亚型的乳腺癌进一步分层,基于证据并兼顾可及性形成不同的推荐等级,而NCCN指南的推荐更加宽泛。这些都会间接导致我国与美国乳腺癌诊疗数据可能存在不同。因此,AI本地化的先决条件就是利用本地数据对AI进行训练。

2.药物可及性:

药物可及性指的是人人能够承担药品的价格,安全、实际地获得高质量、可接受的药品,并获得合理使用药品的相关信息。目前我国药品可及性的现状正在得到迅速改善,但仍任重道远。以HER2阳性晚期乳腺癌为例,一线推荐的双靶向(帕妥珠单抗、曲妥珠单抗)联合化疗方案和二线推荐的T-DM1方案使用的3种靶向药物中,就有2种(帕妥珠单抗和T-DM1)目前国内并未上市。因此,智能决策时基于证据所推荐的方案有时并不能应用于临床实践。

AI的本地化,需要做到"洋为中用,因地制宜"。在保持原本特色的基础上,依靠国内优质病例资源对AI进行训练,结合国内药物可及性,以及价格、医疗保险等情况,为临床医师合理选择治疗方案提供具有实用性的建议。

三、AI面临的伦理问题

随着AI在人类医学领域的广泛使用,伦理问题逐渐凸显,具体表现在以下方面。

1.隐私安全:

AI的发展依托大数据技术的发展,数据挖掘和收集是其主要动力来源。数据挖掘和收集过程中可能出现的未经授权的获取数据行为,在一定程度上增加了公民隐私信息泄露的风险。此外,在进一步应用数据的过程中可能会因为AI自身的缺陷而导致数据泄露。这已经成为限制AI进一步发展的短板。如何保护患者及家属的隐私,保证其在工作、生活中不会因隐私泄漏而受到不公平、不友好的对待,需要我们重点关注,更需要AI从业人员在研发和产品安全性方面做出完善。

2.管理责任:

AI产品与传统产品相比具有更大的自主性,可在更大程度上承担医师的部分工作。与此同时,临床应用中AI产品的责任主体并不明确,当AI做出的错误诊疗决策导致医疗事故时,应如何认定责任方,按现有的法律制度很难裁决。及时更新相关法律法规,可以明确AI产品的责任定位,为未来的实际应用提供法律保障。

四、是否应参照新药临床试验制定AI的研发标准?

相对于新药的上市速度,医疗AI领域依然面临审批难题。截至2018年11月,还没有任何智能医疗产品在中国获批上市。在审批相对宽松的美国,也仅有9个AI产品获批上市。AI审批有其特殊性。首先,不同中心、不同地区的数据存在差异,缺乏验证AI产品普适性所需要的标准测试数据库。其次,AI诊疗责任的法律主体难以明确。因此,医疗AI产品审批严苛,审批周期漫长。

当AI产品试图上市时,与算法和技术相比,安全性和有效性成为更重要的指标,需参考新药上市的审批标准。新药临床试验主要包括三期:一期主要是初步的临床药理学及人体安全性评价试验;二期是初步评价药物对目标适应证患者的治疗作用和安全性,也包括为三期临床试验的研究设计和给药剂量提供依据;三期是治疗作用确证阶段,一般为具有足够样本量的随机盲法对照试验。除此之外,还有临床前期试验(动物实验模型)和四期临床试验(新药推出后进行的后续研究)。我们认为,对于那些拟给出明确诊断或方案的AI产品,上市审批同样需要三期试验,但各期试验的具体开展方法需有不同:一期试验不需要验证安全性,而是在标准测试数据库中验证AI产品的精准度和完成度;二期试验不同于新药临床试验,需要更大的样本量,主要用于机器学习训练和测试;谷歌诊断糖尿病视网膜病变的系统[7]是目前唯一正式通过二期AI试验的产品,接受了1万例患者和1.3亿张图片的训练;三期试验是在真实医疗环境下进行的前瞻性随机双盲对照试验(对照对象主要为医师或其他产品)以证明临床效果,同时需要有足够的随访时间,以发现可能存在的问题。

五、AI能否取代医师?

当AI尚未真正进入临床时,医师更多地关心AI到底有何价值。但当"女性"机器人索菲亚获取沙特阿拉伯公民身份、当智能机器人高分通过执业医师考试之后,我们不得不思考未来医师将与AI如何相处。

AI的发展一直伴随着"AI能否取代人类"的争论,但在医疗领域,AI取代人类还遥不可及。首先,医师的诊疗是一个多层次的、错综复杂的过程。医师面对的不仅仅是疾病,更是患病的人,乃至整个家庭,在进行决策时,不仅需要考虑疾病本身的特征,还要考虑患者的生活环境、心理压力、经济条件、工作家庭、药物可及性、医疗保险等因素,而AI依赖的是标准化的病例数据,难以兼顾诸多纷繁复杂的因素。其次,两者的创造能力不同。AI拥有巨大的记忆容量,可以自我学习,但它不会主动提出问题,对任务的解决是机械的,在将测试对象与预存的可能性注意对照之后,才选择最贴近的答案;而医师而具有高度的主动性、灵活性、随机性。在面临复杂病例时,AI可能由于参考数据较少而无法给出方案,但经验丰富的医师仍可以结合患者目前及既往情况,给出个体化治疗方案。

因此,我们认为AI更多的是医师的辅助工具。但也不能因此轻视AI,尽管医师难以被AI取代,但不会使用AI的医师确有可能被会使用AI的医师取代。医疗转型时代,医师应学习新事物,跟上时代发展,持怀疑态度进行探索,以敬畏之心不断学习[8]。

总之,我们已迈入AI的时代,在探索AI发展方向的同时,AI也将改变我们的生活,并占据越来越重要的地位。现阶段医学领域的AI属于弱AI,相信不久以后,科技的发展会使基于心智的强AI成为可能,并参与疾病诊疗过程,从而更好地辅助医师做出精准的个体化诊疗决策,提高诊疗效率。同时,我们也须谨记,未来无论AI发展到何种程度,也永远不能取代人类智慧,科学工作者的辛勤劳动和努力创新才是社会进步的主要动力。我们要合理利用AI带给我们的便利,同时也要认真思考AI与人类智慧的关系。相信在AI的帮助下,更多方便临床工作的技术会源源不断涌现,而人与AI之间的平衡也将越来越完善。

(参考文献略)

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190213G0PYJS00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券