首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

美国最近有很多恶意使用人工智能报告,但是缺少什么呢

只有傻瓜才会敢批评报告的恶意使用人工智能:“是来自这样一组8月的尸体”——引用:“人类的未来研究所的研究人员,存在风险的研究中心,OpenAI,电子前沿基金会新美国

图1安全中心和其他机构,利用专业知识从一个广泛的领域,包括人工智能、网络安全、和公共政策”。Cripes,这是一个很好的列表。但让我至少总结一下它的100页密集的文本。-有一个方便的执行摘要和介绍-38页涵盖了所有可能出错的地方-15页描述不让它们发生的方法-33页涵盖了有关人员和材料。

至少从表面上看,很难与之争辩。尤其是总体信息:可能会有不好的事情发生,我们不应该梦游地遇到它们。虽然这是一个受欢迎的建议,但有一个因素是显而易见的,那就是它的缺失。奇怪的是,这份报告来自那些科学方法应该和早晨刷牙一样熟悉的群体,但它没有对风险的本质进行任何讨论,甚至没有任何概念。正如安全和连续性专业人士所知,风险是一个数学结构,是概率和影响的产物。

我们都能想象出灾难的场景,但直到我们运用我们的专业知识和经验来评估风险,我们才能对出现的风险进行优先级排序,(希望如此)降低风险。那么,如果没有这个相当重要的元素,我们能从它的页面中提炼出什么呢?首先,我们可以认识到报告的根本目的,即汇集若干不同群体的对话。报告指出:“这份报告的共同作者之间仍存在许多分歧”,报告指出:“这是一项正在进行的工作”。

第二个值得称赞的目标是将人工智能引入公众话语。在这方面,它取得了成功,用专栏的篇幅来衡量——尽管如此,它的成功之处在于,它只不过是增加了善意,却已经堆积了大量的炒作和对人工智能的大肆宣传。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181001A0JPJJ00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券