南宁软件开发公司:人工智能是人类的特洛伊木马吗?

据我们所了解的,人工智能处于起步阶段,因此从某种意义上说,它所接受的不信任与任何其他改变游戏规则的技术没有什么不同。在未来25到50年内,人工智能可能会反映出印刷机,早期计算机或汽车的轨迹:初始应用将变得越来越强大。人工智能应用开发,软件开发公司,南宁鸿业软件。双方权威人士都将警告潜在的巨大潜力和潜在的灾难。一旦波动平稳,AI可能会为社会带来净正增益。

改变我们生活方式的技术一直受到怀疑 - 特别是信息技术。当新技术取代了与世界接触的效率低下的方式时,它通常会吸引关于技术将如何对人类产生负面影响的世界末日宣言的吹嘘。 据说甚至 印刷机都是我们文化灭亡的预兆。然而,从长远来看,许多信息技术对现代世界做出了积极贡献。

需要明确的是,这是狭隘人工智能的短期视角,擅长特定任务。今天的人工智能仍然很简陋,一般只擅长表演一件事。我相信在未来十年左右,人工智能的能力已被高估了,但我认为我们将在不久的将来看到有价值的好处。

一般人工智能是事情变得更有趣的地方 - 也可能是危险的。那时我们会看到机器学习真正是人类级别或更高级别的程序,这个程序可以执行一系列认知任务,也可以比人类更好。人工智能应用开发,软件开发公司,南宁鸿业软件。一般人工智能的出现是对生产增强先前技术的比较不再重要,因为我们根本无法预测它将会产生什么。

即使人工智能在短期内对社会有益,但它会迅速超过其明显的积极影响。除非我们认真对待风险和利益,否则我们将在生命周期内面临安全,信息和存在的威胁,因为人工智能变得更加智能。

怨恨与错误信息危机

随着技术的发展,挑战也将如此。第一个关键点是人们越来越多地反对人工智能,因为他们目前正在从事人类工作 - 例如驾驶卡车或吸食病人。从人类中获取工作的机器人再次并不是一个新的问题。反吹的程度将取决于社会重新分配资源和调整工作岗位的能力 。

第二个挑战是错误的信息生态系统,人类不可能做出合格的判断。随着机器学习如何创建更好和更细微的信息,人类将希望数字验证信息在某种程度上是真实的 - 或者至少不是错误的。人工智能应用开发,软件开发公司,南宁鸿业软件。但几乎可以肯定,它将成为猫捉老鼠的游戏; 随着验证变得更好,那么伪造也会变得更好。

我相信 在我们的一生中,人工智能驱动的错误信息危机有可能 发生。AI已经可以令人信服地操纵 图像 和 视频。女演员的面孔叠加在色情照片和视频上。正在向世界各国领导人说出荒谬或煽动性的言论。

假新闻只是它的一半。个人将面临声誉风险(发送给同事的伪造裸照或网上发布的虚假复仇色情),财务(影响信用的伪造银行文件)和法律地位(虚假音频,视频或其他犯罪证据) 。这不是最糟糕的情况; 这可能是常态。

如果人们不知道什么是真实的或什么是假的,那么个人责任就会消失。即便在现在,战略人员使用人工智能创建的媒体作为躲避公众舆论的一种方式。例如,如果一个人在录像带上被说出性别歧视评论,他可以说这个录像带是伪造的。当AI足够好时,很难证明不是这样。在某一点上,先进技术的简单存在将足以对几乎任何信息产生怀疑。

除了个人及其家人面临的风险外,人工智能还会带来全球安全隐患。人工智能创造的情报或媒体可用于制造政治风暴,引发骚乱,甚至开始 第三次世界大战。

近视界

到目前为止,人工智能的实际影响主要体现在自然语言和图像处理上,传统计算机难以实现。狭窄的人工智能为任务带来了 效率 ,否则这些任务会减慢过程或使人类陷入困境。如果操作正确,这对业务产生了积极的积极影响。

更重要的是,人工智能将在不久的将来带来两项重大进步,挽救数百万人的生命:自动驾驶汽车和人工智能驱动的医学。

每年全世界有超过 100万人死于汽车事故 ,其中绝大多数是由于人为错误,包括中毒。人工智能应用开发,软件开发公司,南宁鸿业软件。自动驾驶汽车可以将驾驶的死亡率降低10倍。我们已经看到像优步这样的公司 很难 在公路上准备好自驾车(尽管投入了数十亿美元),但即使是最悲观的预测在未来20年内自行驾驶汽车在路上供私人使用。

人工智能驱动药物的潜在优势更加令人难以置信。 除了医学分类之外,AI已被证明有用,它将 在制药行业中发挥 革命性的作用。目前,将药物运往美国市场的成本远远超过十亿美元。这迫使制药公司优先考虑大众市场药物和所谓的绝望药物,消费者可能会以任何必要的方式支付这些药物。AI可以以更低的成本和对公司的风险来预测哪些药物可能对特定疾病有效,并且可以减少对人类和动物进行检测的需要。此外, AI引导的DNA分析 可能会迎来个性化药物治疗的时代。

长期观察:超级AI

到目前为止,最大的威胁是由一般人工智能构成的。关于人类AI(或更高)是否可能存在问题。但除非我们发现人类智能是由人类根本无法利用的过程驱动的证据,否则超级人工智能开发只是时间问题。人工智能应用开发,软件开发公司,南宁鸿业软件。然而,尽管 Ray Kurzweil所说,我不相信超人类AI会在我们的一生中创造出来。

AI在大多数任务中达到人类级别或更好性能的合理时间表约为250年。历史上需要我们智能的任何东西 - 建立机器,解决问题,做出重要决策 - 都将由机器更有效地处理。也许会有一些杰出的数学家研究宇宙的方程式,但我们其他人将无法提供社会。

在这个世界上,大多数人可能会依靠普遍的基本收入。我们可以自由地与自己,朋友和家人一起学习和享受时光。但我认为我们更有可能成为懒惰,无动机和非理性的人 - 社会的外壳,就像“勇敢的新世界”一样。正在进行的 关于UBI的长期研究 可能会对这对我们的影响有所了解。

我同意已故斯蒂芬霍金的观点,他认为人工智能的诞生可能是“ 我们文明史上最糟糕的事件。”因为我们根本不知道创造超级人工智能的结果,所以可能性需要大量谨慎这可能是人类历史上最好或最坏的事件之一。

这种好处是否会超过人工智能和机器学习带来的负面影响还有待观察。人工智能已经打开了通往可能由错误信息统治的时代的大门。从伪造的银行对账单到世界领导人宣布虚假战争,人工智能创造的媒体将对我们阅读,看到和听到的内容产生怀疑。一旦我们深入研究技术的可能性,人类就会被机器取代。人工智能应用开发,软件开发公司,南宁鸿业软件。这些将是需要解决的大问题,解决这些问题的公司将价值数十亿美元。除了技术方面,我没有看到任何其他解决方案。

我们能做的最重要的事情就是开始讨论如何处理一般的AI。我们需要了解我们是否能够建立有效的保障措施 - 例如 阿西莫夫的机器人法则 - 可以控制任何可以想象的超级智能。

我认为人工智能是我们创造的,那么我们是完全有能力对它们做出一些限制,所以我们的担心可能是错误的,我们会有我们的法则约束它们。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180706A1F6TP00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券