医疗人工智能“可解释性”深度调查

x
用微信扫描二维码
分享至好友和朋友圈

  

  

  后台回复关键字【 加群 】进入医疗AI交流群

  回复【 M20190728 】获取论文

  A Survey on Explainable Artificial Intelligence (XAI): towards Medical XAI

  导读

  近来,随着深度学习的出现,人工智能,特别是机器学习在许多任务中表现出了非凡的表现,并涉足许多不同的领域和学科。其中一些,例如医疗领域,需要透明度,这意味着我们需要解释机器决策,预测并证明其可靠性。这需要更高的可解释性,并促使我们理解算法背后的机制。不幸的是,深度学习的黑盒问题仍然没有得到解决。我们整理了对不同研究工作所提出的解释性,并对其进行了分类,旨在提供替代视角,希望今后采用可解释性标准更易于处理。我们进一步探讨了医学领域的可解释性,说明了可解释性问题的复杂性。

  介 绍

  机器学习(ML)在研究和工业应用中都变得越来越重要,特别是随着深度学习(DL)和神经网络(NN)的成功,所以其造成的影响和使用的后果不可忽略。在某些领域,失败是不允许出现的,比如在自动驾驶中,即使是暂时功能失调的计算机视觉算法也容易导致车祸。在医疗领域,在早期阶段检测疾病通常对于患者的康复或防止疾病进展到更严重的阶段是至关重要的。

  虽然机器学习,人工神经网络,脑机接口和相关子领域,在执行医疗任务方面表现出了很好的表现,但它们并不完美提供机器学习的可解释性。可解释性因此成为迫切的问题:如果出现问题,谁负责?我们可以解释为什么出问题吗?如果事情运作良好,我们是否知道为什么以及如何进一步利用它们?许多论文提出了不同的措施和框架来捕捉可解释性,而可解释的人工智能(XAI)这一主题已成为ML研究界的热点。此外,可解释性评估标准(例如可靠性,因果关系和可用性)的激增有助于机器学习社区跟踪算法的使用方式以及如何改进其使用,为进一步的开发提供指导。

  在这项工作中,我们通过对机器学习的可解释性相关的研究工作进行一般性的调查,并进行分类,然后将这一调查策略应用于医学领域的可解释性。我们不会试图涵盖所有相关的工作,其中许多已经在我们引用的研究和调查工作中提出。本文安排如下:第2节探讨了可解释性的类型;第3节列出了可解释性研究中经常出现的一些概念;第4节对可解释性的方法进行分类;第5节将前面的部分扩展到医学领域。

特别声明:本文为网易自媒体平台“网易号”作者上传并发布,仅代表该作者观点。网易仅提供信息发布平台。

跟贴 跟贴 3 参与 3
© 1997-2019 网易公司版权所有 About NetEase | 公司简介 | 联系方法 | 招聘信息 | 客户服务 | 隐私政策 | 广告服务 | 网站地图 | 意见反馈 | 不良信息举报

生物医学人工智能

关注生物医学人工智能前沿进展

头像

生物医学人工智能

关注生物医学人工智能前沿进展

42

篇文章

29

人关注

列表加载中...
请登录后再关注
x

用户登录

网易通行证/邮箱用户可以直接登录:
忘记密码