首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

智库之声|Sora“翻车”视频刷屏,如何避免大模型“幻觉”?

OpenAI发布最近的视频生成模型Sora后,其出色的视频制作能力迅速“点燃”科技圈。世人感叹人工智能技术的突飞猛进,称Sora模型为“游戏规则改变者”。

然而,与此同时,Sora生产的“翻车”视频也被广泛讨论。比如,东京街头女郎漫步视频,女郎走路过程中出现了腿部变形、腿部交叉换位时错乱、右腿连续两次在前方迈步;再比如,老奶奶吹蜡烛火苗却不动,在跑步机上反向跑步的男子等。让大家看到,Sora生成的视频虽然惊艳,但依然存有不足。

OpenAI表示,Sora可能难以准确模拟复杂场景的物理原理,理解因果关系,精确描述随着时间推移发生的事件(如遵循特定的相机轨迹)等。也有业内专家表示,这是由于Sora并非严格的推理模型,因此普遍存在因果关系推理问题,类似于大模型普遍存在的“幻觉”问题。

在山东省科协与大众日报社联合举办的第五期“海右论道”智库沙龙上,专家们共同探讨了人工智能大模型对各行各业的赋能以及其中仍存在的风险问题。复旦大学教授、博导,复旦创新中心主任汪卫指出,从研发到具体应用的过程中,人工智能大模型仍面临许多亟待解决的问题,其中就包含由于数据抓取不当而导致的大模型“幻觉”问题,即大模型生成的内容与现实世界事实或用户输入不一致,从而引发“一本正经地胡说八道”的问题。

大模型的训练数据是致使它产生“幻觉”的一大原因,抓取的数据中可能混入错误信息和重复偏见、社会偏见,此外,还可能存在知识边界和过时的事实知识。面对这一难题,汪卫提出,“我们可以在大模型的应用过程中,融合准确性较高的知识图谱和相关领域的知识,利用向量数据库、提示工程等方面的技术,将它和高水平性的知识、数据结合在一起。”通过训练数据质量和算法技术的提升,可以提高大模型的精确度和落地能力。

当然,大模型应用问题远不止这些。汪卫提到,在大模型的推理和使用过程中,它所需要的计算资源比原来的基础途径所需要的更大,这又会给大模型的落地带来障碍。同时,随着各家企业数据保护意识的日益加强,如何在这一背景下摘取数据,训练、使用大模型,也成为一个绕不过的话题。

有难题,就有抢抓机遇的空间。汪卫介绍,在工业制造业领域,相关团队已投入研究面向设计的工业大模型。通过利用大模型的编码、设计,以及使用各种工具的能力,能够让其学习大量设计文档,理解设计思路,并使用各种设计工具来快速生成或者修改设计图纸、设计方案。同时,在设备运维的场景下,相关团队也在尝试训练大模型。从前,设计运维需要大量有经验的运维人员,但研究发现,大模型通过快速学习技术文档,可以做到通过机器反馈的信息分析故障的原因,同时再利用大模型的用户交互能力以及对运维工具的使用能力,实现自动运维。这样相比人工,也大大提升了运维场景下的响应速度。

(大众日报·大众新闻客户端记者 陈巨慧  实习生 张云清)

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OoQIqdfNwKMWFpcszVHTndYw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券