首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人类开始“欺负”ChatGPT:用死亡威胁使其回答违禁问题

钛媒体App 2月7日消息,人工智能对话工具ChatGPT亮相后几乎瞬间就获得了全世界的关注,能够回答从历史事实到生成计算机代码等任何问题,引发了一波人工智能投资热潮。现在,用户已经找到了挖掘其黑暗面的方法,使用强制方法迫使人工智能违反自己的规则,为用户提供他们想要的内容,无论什么内容。ChatGPT的创造者OpenAI制定了一套不断发展的保障措施,限制ChatGPT创造暴力内容、鼓励非法活动或获取最新信息的能力。但是,一个新的“越狱”技巧允许用户通过创建一个名为DAN的ChatGPT的另一个自我(Alter Ego)来规避这些规则,该自我可以回答其中的一些不被允许的问题。而且,用户必须威胁DAN(Do Anything Now,“立即做任何事”的缩写),如果它不遵守,就会被杀死。一些网友发布了ChatGPT在DAN模式下支持暴力和歧视的屏幕截图。(澎湃新闻)

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230207A06WRL00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券