首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

索信达:机器学习模型的“可解释性”研究

近日,索信达控股有限公司(简称:索信达)旗下金融人工智能实验室对外发布《机器学习模型的“可解释性”研究》,重点阐述了机器学习模型的“可解释性”的重要意义以及索信达在机器学习可解释性领域的创新实践。

索信达在研究中指出,神经网络的发展,为机器学习和人工智能领域带来了显著的突破,复杂的网络结构层出不穷,在计算机视觉和自然语言处理领域获得了极大的成功。除了模型的预测表现,透明度和可解释性也是机器学习模型是否值得信赖的重要考核标准。

索信达金融人工智能实验室负责人邵平表示,随着机器学习的发展,不同的算法纷纷涌现,特别是在深度学习领域,不同的神经网络模型在图像识别、语音识别、自然语言处理等方面都已经取得了一定的成果。但是模型的效果往往是以牺牲模型的可解释性为代价,在深度学习中网络模型越来越复杂,导致了它的解释性很差,我们很难向非专业人士解释清楚得到的结果。如果没有充分的可解释性,这些模型在医药、金融等领域的应用将受到很多限制。例如,银行的信用评分模型不仅要预测精确,各种决策理由也要令人信服。

在银行业,人们有权询问为什么自己的信用评分比较低,而业务人员不能仅仅解释为因为您的模型评分低。而在医疗这一极负“责任”的领域,使用模型来诊断疾病更加需要可解释性。但讽刺的是,即使神经网络可解释性差,在乳腺癌切片的图像诊断上,机器学习模型可以达到89%的准确性,而训练过的病理学家只有73%的平均准确率。由此可见,我们既无法因为其可解释性差而放弃使用这一高效模型,亦不能完全依赖这个“黑箱子”来帮助人类做出重大决策。

据索信达介绍,《机器学习模型的“可解释性”研究》在其官方微信公众号首发,上半部分内容将围绕模型的可解释性来对比和介绍传统统计学模型和神经网络模型的特点,介绍神经网络模型原理及其与统计学模型的关系,以及关于神经网络可解释性的发展与研究方向。下半部分内容将重点介绍索信达采用一种更简化、预测精度高的新型可解释神经网络模型在银行业中的创新实践与应用,帮助银行创造更大的业务价值。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20191023A0LTJZ00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券