首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Cambridge Analytica和Facebook向我们展示了AI真正的危险

我们一次又一次的被警告说,人工智能是不靠谱的,它们不能做出与道德相关的决定,而且其完全依赖人类的伦理道德选择。

剑桥分析公司采取了这种不好的技术,窃取数据和滥用机器学习,并用它来制造一种专门用来激化美国人民的工具。该公司的成功甚至比连环杀手的危害还要大。

无论Facebook的参与程度如何,它现在都被卷入了整个事件中。即使事实证明两家公司都没有破坏法律,将人工智能视为武器对付人类并系统地操纵若干国家的人口不仅仅是坏事。

在CA/Facebook丑闻上理解AI是非常不应该的,因为这是人工智能的不道德的使用。如果你期待未来将出现一群杀手机器人,那么我们的社会工程师一定会一心想要改变我们社会的DNA,通过歪曲科学来宣传。

2013年,斯坦福大学一名名为Michael Kosinski的研究人员发布了一篇颇受欢迎的白皮书,其中“人工智能可以预测人类的人格特征比人们所能预测的要好,只需使用Facebook数据即可。”

理解“比人类更能胜任”绝非是对AI能力的衡量。你可以制造一种比人类能飞得更好的纸飞机,这种类比是不对的。

如果有足够的信息,AI很可能可以“预测”任何比人类更好的东西。我们最近批评了Kosinksi提出的另一篇论文,他声称他用“可以使用的最蹩脚的算法”来预测人们是不是同性恋者,这是非常不道德的

正如我们已经指出的那样,要么袖手旁观,当做什么都不知道,要么就支持它。并没有法律规定他的工作是要保护我们的民主国家免受威胁。

  • 发表于:
  • 原文链接https://thenextweb.com/artificial-intelligence/2018/03/21/killer-robots-cambridge-analytica-and-facebook-show-us-the-real-danger-of-ai
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券