首页
学习
活动
专区
圈层
工具
发布

大阪都市大学开发可解释AI船舶导航系统 增强自动驾驶信任度

113年前(1912年4月14-15日),泰坦尼克号因撞击冰山沉没,事故原因可能涉及人为操作失误致使船舶偏离安全航线。如今,基于人工智能的自主导航系统虽能帮助船舶规避类似事故,但其决策逻辑能否向船员清晰阐释?

这正是可解释人工智能(Explainable AI)的核心价值——通过阐明系统决策依据,提升人类对自主技术的信任度。大阪都市大学工学研究科吉冈仁志(研究生)与桥本博忠教授团队针对海上关键航道日益拥堵的现状,成功开发出可量化碰撞风险的船舶用可解释AI模型。

该模型通过数值化呈现区域内所有船舶的碰撞风险,同步解释自主导航系统的决策基础与行为意图。“当AI能阐明其航行判断依据时,海事工作者才会真正信任这套系统。” 桥本教授表示,“这项研究也将推动无人船舶技术的实用化进程。”

研究成果已发表于海洋工程领域权威期刊《Applied Ocean Research》。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OGP0ggOV-RGoexfoC_KpH3Ig0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券