首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

方滨兴谈 GPT-4:警惕形成知识茧房,甚至“三观被左右”

当地时间3月14日(北京时间3月15日凌晨),ChatGPT的开发者OpenAI发布了更强大的GPT-4模型。OpenAI表示,GPT-4是一个能接受图像和文本输入,并输出文本的多模态模型,是OpenAI在扩展深度学习方面的最新成果。ChatGPT热度还未散去,更强大的GPT-4再度成为关注焦点。

对于这股ChatGPT热潮,中国工程院院士、前北京邮电大学校长、网络空间安全专家方滨兴接受红星新闻记者采访谈了自己的看法。他特别指出,从安全角度,要警惕ChatGPT形成知识茧房,也要警惕应用GPT的智能行为体可能伤害人类。

方滨兴 据广州大学官网

据悉,此前的ChatGPT是基于GPT-3.5,而在去年就完成训练的GPT-4,一直备受期待。上一代的GPT-3.5不是多模态模型,只能输入和输出文字,而GPT-4能够接受图像输入并理解图像内容,理解能力达到可以解读表情包、梗图。

OpenAI称GPT-4准确度进一步提升,在各种专业测试和学术基准上的表现与人类水平相当,例如已经能够通过律师考试,分数在应试者的前10%左右。GPT-4还能够生成歌词、创意文本,实现风格变化。此次发布也证实了此前的外界猜测,ChatGPT的联网版本——微软的new Bing,已经用上了GPT-4。

对于ChatGPT以及GPT-4掀起的热潮,方滨兴关注到一些问题。他告诉红星新闻记者,现在的ChatGPT是一个聊天形式的软件,给出一个直接答案,取代了传统的教学体系,当大家习惯于查ChatGPT,什么都问它,它什么都给你解答,就会形成知识茧房,甚至“三观都会被左右”,这对各国政府来说都是一个大问题。

GPT-4创意图 据视觉中国

方滨兴的另一个担心来自于人工智能对于实体的控制。现在GPT只是一个软件,应用到网络聊天场景有了ChatGPT,但还不能看、不能听、不能摸。而当这样的人工智能接入机器人、汽车等现实世界的“行为体”,能够控制实体时,要警惕这些智能行为体可能有伤害人类的能力。

“GPT的知识背景会产生生命意识。现在所有机器人都没有自我意识,(如果)有一天(它)认为需要自我保护,比如怎么充电,防止别人卸载它的部件等。而它想保护自己不被伤害,一个重要的保护方式可能就是伤害对方。”方滨兴说。

此次发布中,一个令人惊叹的演示是:一个手写的草稿图,GPT-4可以立马生成网站的HTML代码。在方滨兴看来,GPT可以替代某些重复的劳动,比如现在的程序外包等,但需要创新的工作暂时无法代替。对于GPT的进步,方滨兴认为,这是有足够多的输入下的积累式学习结果,他认为,现在各大科技企业人工智能大模型“军备竞赛”,方法基本上都一样,比拼的是大家的耐心。

红星新闻记者 胡伊文 北京报道

编辑 郭庄 责任编辑 魏孔明

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230315A07YR000?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券