首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

极客用10 万聊天记录来训练模型做了数字克隆AI,结果被网友玩坏

极客王登科-DK使用他 80G 接近 10万条微信聊天记录以及近300篇博客文章的数据来训练 ChatGLM-6B模型(ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型)试图生成一个有自己风格的数字自己。(详细的训练过程可以查看 DK 的博客)虽然结果不尽如人意,比如没办法帮 DK 写代码写文案,而且对 DK 也不是很了解。

在 DK 公开这个训练后的 “数字克隆 DK” 之后,很多网友纷纷来“调戏” 这个模型,试图找一些乐子。

比如有的网友套出 DK 的女朋友和老婆并不是同一人,并且是都是同一个学校的

也有的网友在聊天过程中发现 AI 有时候会口吐芬芳,而据 DK 所说,他平时其实很少说脏话:

甚至需要 DK 亲自向网友道歉

还被网友发现 DK 潜在的南桐倾向

不过 DK 也连忙出来辟谣

还有一些搞笑的

这个 AI 有一个很大的问题,就是容易泄露隐私,比如有网友就套出 DK 的住址:

虽然目前这个数字克隆 DK 还比较弱,但还是提供给了大家很多的欢乐,如果你有兴趣体验的话,

可以访问下面的地址:

https://ai.greatdk.com/

训练过程: https://greatdk.com/1908.html

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230413A0AORO00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券