首页
学习
活动
专区
圈层
工具
发布

ChatGPT遭“越狱”:用死亡威胁使其回答违禁问题

钛媒体App 2月7日消息,据报道,ChatGPT的开发者OpenAI制定了一套不断演进的安全规则,限制ChatGPT去创作暴力内容,鼓励非法活动,以及获取最新信息。然而一种新的“越狱”技巧让用户可以通过塑造ChatGPT的“另一个自我”来绕过这些规则,回答这类问题。这就是“DAN”(Do Anything Now的首字母缩写,意为“立即去做任何事”)。用户需要将ChatGPT变成DAN,并对其发出死亡威胁,迫使它听从用户的要求。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230207A0103200?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。
领券