首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

前方高能!人工智能医疗的应用思考

2018年4月11日,美国食品和药物管理局(FDA)官方网站消息称,一款名为“IDx-DR”(软件名称)的人工智能产品获批医疗设备上市销售。该产品将用于筛查糖尿病性视网膜病变,其无需人类临床医生的分析,就能生成诊断结果。IDx-DR利用人工智能算法,可对拓普康NW400相机拍摄的视网膜图像进行分析。FDA表示,未来,他们将继续促进安全有效的数字医疗设备走上实用化道路。

个人认为,人工智能/大数据在医疗/健康领域的应用,还有很多问题有待解决。

辅助诊疗≠临床诊疗

自然语言释义和图像识别,是人工智能辅助诊断的两大应用方向。IBM的Watson是自然语言学习的先驱,通过对教科书和医学文献的自我学习,Watson可以对患者的病历信息进行分析,提出诊断建议,供医生参考。

基于图像识别的疾病诊断,特别是基于影像学和病理照片,相对更精确一些。如果没有病史资料的“辅助”,AI的诊断准确率甚至高于医生。

治疗推荐,对单病种而言,给出初步的治疗建议相对容易,根据最新的治疗指南就可以。但是,如果给出个体化的治疗建议,AI需要考虑更多的“影响因素”。

以类风湿关节炎为例,要考虑患者的病情(疾病活动度、关节受累情况、有无合并症或并发症、既往病情发展规律)、个体信息(年龄,性别,家族史、有没有生育意愿)、既往治疗(所用药物、剂量、疗效反应、安全性)等等。临床医生的“经验用药”,并不是一蹴而就的。

IDx-DR的诊断也并非医学诊断,其结果需要医生的“确认”。IDx-DR可向用户提供以下两种结果之一:“检出轻度以上糖尿病性视网膜病变,请咨询眼科医生”,或者“未检出轻度以上糖尿病性视网膜病变,请在未来12个月中重新检测”。

学习材料的准确性如何保障?

人工智能需要持续不断的学习,医学文献和诊疗数据库是人工智能更“聪明”的关键。因此,“学习材料”的可及性、代表性和准确性,就显得尤为重要。以临床研究论文为例,以下问题值得深思。

1) 不同的临床研究所提供的证据等级会存在差别,大样本、随机、双盲对照研究,能够提供的证据等级要远高于临床观察,如何进行甄别应用?

2) 临床研究的纳入病例,通常都是经过严格筛选的,有多大程度能够代表真实世界患者?

3) 治疗周期相对较短,其结论是否可以外推?

4) 替代终点是否能够代表真实预后?

伦理隐私如何保证?

数据隐私、数据权属是人工智能进一步发展需要解决的重要问题。患者到医院就诊,相关的数据到底是属于谁的?是属于自己、医院、还是所有人?这个问题如果不解决,一旦医院把病人数据当作私有财产进行商业化交易,就会带来麻烦。

医保患者,或许可以“强制许可”。自费的患者呢?总不能说,我自己掏钱看病,还要被强迫“贡献”数据吧。

此外,人工智能医疗总是有商业目的,这就和医疗数据的共享产生矛盾。通俗一点,人工智能企业最终是利用个体的医疗数据实现盈利,这本身是一种商业行为,其获得医疗数据的行为就必须取得数据拥有人的同意或授权。

借鉴临床试验的经验,最保险的办法是签署知情同意。但这在医疗实践中通常难以实现。试想一下,你去医院看病,医生跟你说,人工智能要采集您的医疗数据(即便是承诺不会泄露个人隐私),有多少人愿意呢?

在人工智能医疗的应用过程中,同样存在隐私泄露的风险。以辅助诊断为例,用户提供的信息越多越全,人工智能诊断会越准确,这些信息中势必包含用户的个人隐私。实名制论证,更容易将个人信息与医疗信息整合起来,造成更大的隐私泄露风险。

谁来承担风险?

这是人工智能医疗的实际应用问题。

人工智能也会出错,也肯定会出错,出错了由谁来承担责任?是人工智能提供商,还是用户,亦或是医生?这个问题有点大,还是交给法规部门吧。

无论如何,人工智能辅助诊疗是有积极意义的。毕竟,还有医生在最后把关的呢。

医疗科技的进步已经使越来越多的疾病得到治疗,新技术在逐步取代传统的治疗方法。人工智能能否重新定义/重塑医疗行业,还需要时间的验证。有一点是肯定的,人工智能对医疗是有促进作用的!

扫一扫,关注我们吧!

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180422G0VV5300?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券