首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI系统肺癌分型准确率达97%,还能识别六大肺癌常见突变基因

应该每个医学生都经历过看病理切片的痛苦吧,眯眼盯着显微镜好几分钟“找不同”真是一大折磨,可是不经历这千万次的折磨,面对某些长得特别像的肿瘤咱们就得麻爪了。比如说同属非小细胞肺癌的肺腺癌(LUAD)和鳞状细胞癌(LUSC),虽然兄弟俩长得很像,但是在临床上治疗选择却大相径庭。

几十年来,医生们就是靠着训练有素的火眼金睛来为患者寻找诊断依据的,不过或许很快医生们就能够从这种乏味的重复劳动中解脱出来了。

今天发表在《自然医学》的一项新研究带来了纽约大学研究者的最新成果。研究者们利用大量数字化病理切片图像重新训练了谷歌的深度学习算法Inception V3,AI识别癌组织和正常组织准确率达到99%,区分腺癌和鳞癌的准确率达到97%,远超前人研究![1]

更令人惊讶的是,该算法能够从切片图像中识别肺癌常见六大基因突变,包括已有靶向疗法的EGFR突变,准确率能达到73%-86%。目前在单GPU上检测一个数字切片的时间在20秒左右,研究者认为,更新的技术加上多GPU并行处理,每个切片的检测时间可以只有几秒钟

真·火眼金睛啊!

通讯作者Aristotelis Tsirigos (左),Narges Razavian(右)

无论发病率还是死亡率,肺癌都是我国癌症中的头号杀手,每年新发病例达到80万,死亡人数则接近70万。在占据了绝大多数的非小细胞肺癌中,肺腺癌(LUAD)和肺鳞状细胞癌(LUSC)是两个主要的亚型[1],而它们二者的现有治疗方案,从常规化疗到最新的靶向治疗,都是截然不同的[2],所以准确区分亚型就成了治疗的一大关键。

病理组织切片是临床上常用的分型手段。不过一是在几十倍放大显微镜下,数据量巨大,二是癌细胞形态也未必有很明显的区别能够一下看出来,怎么能够解放医生的双眼就很值得一究了。

此前有研究者利用随机森林模型开发了病理切片的识别算法,区分肿瘤组织和正常组织的准确率达到85%,亚型分型准确率则达到了75%[2];另一项研究则实现了83%的分型准确率[3]。

纽约大学的研究者们选择了谷歌的一种开源算法Inception V3[4],这是一种常用于分析视觉图像的卷积神经网络(CNNs),在谷歌手里,它能够识别一千种以上的对象,它也已经成功被用于检测皮肤癌症[5]和糖尿病视网膜病变[6]了。

那么怎么让AI认识肿瘤组织和正常组织呢?给它喂知识!

研究者从基因组数据共享(GDC)数据库中获得了1634个数字化病理切片图像,其中包括1176个肺部肿瘤组织和459个正常肺组织,它们又被分为三组,分别用来训练、验证和检测。

考虑到整个数字切片数据量很大,没法直接用来分析,研究者们还把每个切片又进一步分为512×512像素的碎片图像,根据切片大小要分几十到几千份不等,平均每个切片分为约500个碎片。

训练过程

不得不说机器真是聪明,吃了这些知识之后它一下就成了病理专家,区分肿瘤组织和正常组织的准确率达到99%,跟真人专家达到一个水平在区分正常组织、鳞癌组织和腺癌组织上,准确率则达到了96.8%

研究者请了三位病理学家来和AI较量,两位专攻胸外,一位是解剖学专家。总的来说,三位历经千锤百炼的专家,水平和AI是基本一致的。那些AI分类错误的切片,有50%至少有一名专家也看错了,说明腺癌和鳞癌的区分确实很困难。此外,专家看错的83%(45/54)切片都能够被AI正确分类,说明这个系统还是很有作为二次校正使用的潜力的

红色的腺癌、蓝色的鳞癌和灰色的正常组织

除了准确,AI的另一个优点就是快。一般情况下,医生看一个切片怎么也要几分钟,病理组织特别复杂的情况下,或许还用动用免疫组化分析,那诊断时间就要超过24小时了。

AI就快得多了。目前研究者使用单个Tesla K20m GPU进行分析,平均每个数字切片分为500个碎片,分析只要大概20秒,如果采用多GPU并行的方式运行,差不多几秒钟就能出结果了!目前最大的障碍反而在扫描系统上,放大20倍的切片扫描需要2-2.5分钟,不过FDA去年才批准了最新的超高速数字化病理学扫描仪[7],相信这也不会是什么难闯的关。

研究者还在来自纽约大学的独立数据库中进行了检测,AI仍旧能够在83%-97%的情况下正确分型。考虑到纽约大学保存的肿瘤样本纯度远远不如GDC的样本,其中含有更多的炎症、血管、血凝块、坏死区域等“噪点”,样本保存方式也不太一样,研究者认为,只要数据量上来了,准确率也会随之提升

在冷冻切片、FFPE样本和活组织样本中,准确度都不错

接下来,研究者准备尝试训练AI从病理切片中“看”出突变,这可是多高明的医生都做不到的!

为了保证足够的样本量,研究者只选择了突变率高于10%的基因和腺癌样本,总共纳入了320个切片、212000个碎片用于训练和验证,62个切片、44000个碎片用于测试。AI猛学一顿之后,果然就能够认出STK11、EGFR、FAT1、SETBP1、KRAS、TP53等六个基因在肺癌中的常见突变了,准确率从73%到86%不等

而且从数据来看,面对多种类型的EGFR突变,免疫组化分析(IHC)只能检测到最常见的两种p.L858R和p.E746_A750del,AI还能够检测到更多的突变和缺失,例如p.G719A,p.L861Q 和 p.E709_T710delinsD。

就像我们前面说过的,EGFR已经有了相应的靶向治疗方案STK11存在于15-30%非小细胞肺癌中,也是一个潜在治疗靶点[8,9];其他基因的突变情况也都具有一定的预后意义,与肿瘤的耐药、侵袭性等特性有关

具体的准确率数据

与亚型检测一致的是,突变检测在独立样本中的准确度也略有降低,而且幅度和亚型检测相似,研究者认为这也是由样本制备带来的差异,可以通过大数据训练来提高。

不过研究者还不知道AI到底是怎么从切片中判断出突变的,只能猜测突变会带来极其微小的、人类无法观察到的变化。这就是机器学习的“黑匣子”问题了,有人觉得我不需要知道为啥,好用就行呗,也有反对的研究者提出,如果你不知道为啥,又怎么能够百分百确定呢。

这就是研究者们下一步要做的事情了。接下来的几个月中,研究者将使用更多不同来源的数据训练AI,并积极考虑商业化以便早日投入临床。

想象一下,现在肿瘤测序还需要几天到几周不等,考虑到时间和成本,还没法纳入标准治疗流程。而这项技术如果真的落现,那么只要病理切片扫一扫,或许就能够得到一项可行的治疗方案,岂不是美哉!

AI还能给出突变率

当然了,研究现在还是在一个比较基础的阶段,斯坦福大学癌症研究所研究者Daniel Rubin就表示,说这项技术能够取代目前的诊断方法还为时尚早,AI还需要更多的验证工作,不过这项研究确实让我们看到了人类和计算机合作的未来,也说明病理图像中蕴含的信息量比我们现在能够利用的还要多得多[10]。

本文的通讯作者Aristotelis Tsirigos也在采访中表示,AI能够通过病理切片诊断肺癌亚型,还不意味着很快就能代替医生的工作,但是目前来说,AI已经可以帮助医生减少读片错误了[11]。

希望未来这些基础工作能够都交给机器来做,真正解放医生去处理更多更重要的临床决断。

注:文中提到的 谷歌算法是开源的。研究者认为这个算法对任何肿瘤都是有效的,感兴趣的读者可以前往以下网址查看。

网址

https://github.com/ncoudray/DeepPATH

参考资料:

[1]Coudray N, Moreira A L, Sakellaropoulos T, et al. Classification and Mutation Prediction from Non-Small Cell Lung Cancer Histopathology Images using Deep Learning[J]. bioRxiv, 2017.

[2] Yu, K.-H. et al. Predicting non–small cell lung cancer prognosis by fully automated microscopic pathology image features. Nat. Commun. 7, 12474 (2016).

[3] Khosravi, P., Kazemi, E., Imielinski, M., Elemento, O. & Hajirasouliha, I. Deep convolutional neural networks enable discrimination of heterogeneous digital pathology images. EBioMedicine 27, 317–328 (2018).

[4] Szegedy, C., Vanhoucke, V., Iofe, S., Shlens, J. & Wojna, Z. Rethinking the Inception Architecture for Computer Vision. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2818–2826 (Boston, MA, USA, 2015).

[5]Esteva, A. et al. Dermatologist-level classifcation of skin cancer with deep neural networks. Nature 542, 115–118 (2017).

[6]Gulshan, V. et al. Development and validation of a deep learning algorithm for detection of diabetic retinopathy in retinal fundus photographs. J. Am. Med. Assoc. 316, 2402–2410 (2016).

[7]Abels, E. & Pantanowitz, L. Current state of the regulatory trajectory for whole slide imaging devices in the USA. J. Pathol. Inform. 8, 23 (2017).

[8]Sanchez-Cespedes, M. et al. Inactivation of LKB1/STK11 is a common event in adenocarcinomas of the lung. Cancer Res. 62, 3659–3662 (2002).

[9]Shackelford, D. B. et al. LKB1 inactivation dictates therapeutic response of non–small cell lung cancer to the metabolism drug phenformin. Cancer Cell 23, 143–158 (2013).

[10]https://www.wired.com/story/google-ai-tool-identifies-a-tumors-mutations-from-an-image/

[11]https://medicalresearch.com/cancer-_-oncology/lung-cancer/artificial-intelligence-can-reliably-diagnosis-specific-types-of-lung-cancer/44583/

文|来源:奇点网

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180924A0CEQR00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券