自主智能系统如果出现问题将会是谁的责任?

在构建和使用自主和智能系统时,重要的是要知道它们的行为是可靠的,因为如果出现问题,它们问题将是大规模的。

各种企业组织正在竞相实施人工智能,专注于潜在的利益,但不一定是风险。在建立和使用智能系统时,无论是否自治,企业都应该尽其所能确保其可靠运行。否则,这些系统就不可信任。更糟糕的是,意外结果可能会破坏贵公司与股东,合作伙伴,客户和员工建立的信任。

如果您认为智能系统只是另一种技术,那么您的IT风险管理策略可能反映了这一点。以下是在关于在自主和智能系统中构建可靠性的需求和重要性需要考虑的几个要点。

这是一种新的责任形式。传统上,系统可靠性是通过实际结果与预期结果一致的程度来衡量的。在确定性编程的世界中,给定的输入应该产生给定的输出。然而,在概率系统中,结果并非如此。软件开发人员,IT和业务负责人应该考虑自治和智能系统可以使用和滥用的多种方式,以及系统可以“正确”和“错误”的方式。

如果出现问题,谁将对意外后果负责?设计系统的人?编写算法的人?使用该系统的人?行业团体,律师,技术专家和立法者正在探讨这个问责制问题。“随着任何新的和不断发展的事情,所有的制衡措施都没有到位。例如,对于自动驾驶汽车,你如何根据撞车事故对它进行分析,无论是碰到树还是伤害乘客还是撞到街上的人?责任讨论分为三个部分:设计师,用户和机器代理 - 即机器对其自主行动的责任。

“现在,我们承认人力机构和组织机构,但我们需要讨论机器代理,”现代劳动力是人和机器。组织对两者的行为负责,因此对业务的最佳利益是高度重视他们正在使用的自主和智能系统的可靠性。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181207A0H8D700?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码关注腾讯云开发者

领取腾讯云代金券