首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Near联创:AI和大模型带来的不是安全问题,而是人的一致性问题

BlockBeats 消息,9 月 13 日,Near 联创 Illia Polosukhin 在新加坡 Token2049 的主题圆桌上发言表示: 「一方面这是我使用的代理或模型,它代表我,我希望它的行为与我的期望一致,这似乎更像 OpenAI 和其他公司正在解决的问题,他们将其作为一个产品呈现出来,确保它的行为与公司的价值观一致,同时又不偏离。 然而,如果从全球的角度来看,我认为现实情况并不是 AI 的安全问题,而是需要解决人的一致性问题,因为生成内容和虚假新闻的挑战涵盖了人类历史的始端。在 Web3 中,我们实际上将拜占庭容错作为核心,因为拜占庭军队中存在着错误信息,他们试图找出如何应对这种情况。所以实际上,整个领域都是基于错误信息和恶意行为者的。所以,这是一个关于恶意行为者的人类问题,而 AI、这种语言模型和生成内容是一种新的允许进行筛查的工具。」

  • 发表于:
  • 原文链接https://page.om.qq.com/page/On_0BYFkYkrdS2Iks2QTt6rg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券