DARPA (美国国防部高级研究计划局) 研究“可解释的人工智能”的原因是为了确保 AI 系统能够产生可预测、可靠和可解释的结果,同时避免存在安全隐患或产生恶意行为。可解释性 AI 的概念在于增强 AI 系统与其运作方式之间的清晰度和透明度,使人类能够在 AI 系统发生误判时更容易发现错误并采取相应的措施。
以下是在军事、医疗、金融等领域中,DARPA 对可解释性 AI 的研究目标:
此外,通过提升 AI 系统的可解释性,还可以提高人类在 AI 系统中的参与度和反馈作用。通过对 AI 系统的运作方式有更深入的了解,人类可以更容易地纠正和优化 AI 系统的决定,使其更符合人类的需求。
在许多方面,可解释性 AI 都具有重要意义。虽然目前许多 AI 系统已经在很多任务中取得了显著的成绩,但是它们也面临着缺乏透明度和可解释性的问题。此外,AI 技术在某些情况下可能会导致偏见和歧视,可解释性 AI 系统可以帮助人类发现这些问题并采取措施来解决它们。
领取专属 10元无门槛券
手把手带您无忧上云