首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能的模型崩溃:凯文·凯利“最低水平法则”的后果

人工智能(AI)以其复杂性而闻名。神经网络、深度学习、机器学习算法,所有这些概念都赋予了人工智能效力,但它们也赋予了人工智能技术令人生畏的复杂性。但是,如果人工智能的未来不在于增加复杂性,而在于简单性呢?如果缺乏人类参与的情况会将人工智能推向衰败状态呢?

这个想法可以与凯文·凯利在他的《失控》一书中描述的被称为“最低水平法则(the law of the lowest level)”的概念联系起来。根据这个法则,复杂的系统往往会自我组织,并随着时间的推移向更简单、更有效的状态发展。随着系统变得越来越复杂,它们自然会开发出降低复杂性和提高效率的机制。人工智能会受到这个法则的约束吗?

最近的研究表明,情况可能就是这样。随着对人工智能生成内容的日益受到关注,人们担心我们所依赖的人工智能模型可能会经历“模型崩溃”,即人工智能模型退化到不太复杂的状态,失去生成可靠、类似人类的内容的能力。这种预测并非没有依据;它依赖于这样的观察,即像OpenAI的产品ChatGPT这样的人工智能模型主要根据人造数据进行训练,而人造数据仍然是互联网上最丰富的内容类型。

这些观察结果背后的研究人员推测,未来互联网的大部分内容都是由人工智能生成的。在这样的未来情形中,人类作家可能会变得罕见,随着原创、人造内容的消失,像ChatGPT这样的人工智能模型将因为在训练中使用“模型生成的内容”而遭受不可逆转的缺陷。在这种情况下,互联网, 这个曾经是人类思想和创造力的巨大存储库,可能变得自我折叠起来,成为一个自我喂养的实体,喷出几乎没有价值的乱码数据。

正如世界正在努力应对环境污染的后果一样,我们可能处于一种新型污染的边缘——一种数字污染,互联网上充满了人工智能生成的“废话”,而不是有意义的、人造的内容。有效训练新的大型语言模型(LLM)或现有模型的改进版本将变得越来越具有挑战性,其优势将归于那些以前抓取了网络上真实人类创造的信息,或可以控制“大规模人类界面”的公司。

人工智能驱动的未来互联网可能类似于被重新压缩了太多次的JPEG图像,变成了一堆毫无价值的数字白噪声。但有潜在的补救措施可以避免这个人工智能的灾难情况。人工智能公司可以保留原始的人造训练数据,以训练未来的模型。他们还可以确保少数群体和不太受欢迎的数据仍然是训练数据集的一部分。这些解决方案需要付出巨大努力,但对于避免模型崩溃和保持人工智能模型的进展是必要的。是的,如果你是学校老师,请保存好学生们手写的作文稿件。

总之,凯文·凯利概述的最低级法则完全适用于人工智能。如果不加控制,对人工智能生成内容的日益依赖可能会将人工智能模型推向简化甚至衰退的状态。它强调了人类参与人工智能的必要性以及人类持续生成数据的重要性。必须在人类和人工智能生成的内容之间取得平衡,以确保人工智能的可持续进化,否则我们可能会进入数字白噪声时代。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230616A03SG600?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券