首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

是时候解决大模型的信任问题了

以ChatGPT为代表AI大语言模型(LLMs)是一项具有革命性的技术。它不仅可以像之前的人工智能一样进行分类或预测,还可以通过自然语言与人类对话,生成文本、图像、视频、可执行代码等各种形式的内容,这将对人们的生产生活和社会发展产生深远影响。但是人工智能开发和应用阶段的任何错误都可能是灾难性的。[1]现在大语言模型已经面临诸多信任挑战,比如人们越来越无法分辨区分出ChatGPT生成的内容与人类生成的内容;大语言模型存在幻觉问题,会生成错误、具有诱导性的内容,那么人们该如何分辨并信任大语言模型生成的内容;大语言模型还存在偏见、歧视、隐私侵犯、有害言论等多方面伦理风险,继而带来一系列信任危机,甚至遭到业界的抵制和封杀。信任是人工智能发展的一个核心问题,人与技术之间信任关系更是技术发展趋势与人类未来的一个核心问题。[2]DeepMind首席运营官Lila Ibrahim表示,AI大模型是一种变革性技术,但它只有在得到信任的情况下才能充分发挥潜力。

01

人脑给AI打工?给保安带上脑机接口,眼睛识别违禁品,0.3秒自动标记结果

大数据文摘出品 假如你是一名地铁安检,你的眼前以每秒三次的频率闪现这样的图像,你能发现其中一个行李里面携带了枪支吗? 不是很难,对吧? 不过,现实中的工作不是这么简单,一眼看到还不够,后续还要进行一些操作,比如按下暂停按钮或者人工上报,这些往往更耽误时间。 这时候你可能会想,能不能用AI呢? 的确,AI识别危险物品现在也能做到又快又准,不过,哪怕是最先进的AI,准确率也不能达到100%,对于一些不是很重要的任务,AI或许可以独立完成,但是对于安检这样的重要任务,往往只能依靠人工检测。 人脑本身处理图像的速

01
领券