首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

ChatLM-0.2B:0.2B的中文AI大模型!可部署消费级显卡!

目前的大语言模型都需要很大的计算资源,一般人很难部署。而且,它们也不一定适合中文对话的场景,因为中文的语法、文化、习惯等都和英文有很大的差异。

那么,有没有一个既轻量又强大的中文对话模型呢?答案是有的,它就是ChatLM-0.2B

ChatLM-0.2B是什么?

一个开源的中文对话小模型,只有0.2B(约210M)的参数,但是能够生成流畅、有趣、有用的对话内容。

它是基于T5模型的Text-to-Text预训练,使用了多个互联网公开的单轮对话数据集,包括社区问答、百科问答、医药问答、知乎问答等,共计约900万条数据。

它还使用了SFT(Semantic Fusion Transformer)和DPO(Dynamic Preference Optimization)两种技术,来提升模型的语义理解和偏好表达能力。

如何体验呢?

你可以通过浏览器访问Hugging Face的网站,找到charent/ChatLM-Chinese-0.2B这个模型,就可以直接在网页上和它交互,或者下载它的权重文件,用自己的代码加载它。

你可以通过GitHub访问charent/ChatLM-mini-Chinese这个项目,看到它的源代码和文档,了解它的训练过程和使用方法,甚至可以自己修改它,让它更适合你的需求。

如何安装使用?

克隆项目

git clone --depth 1 https://github.com/charent/ChatLM-mini-Chinese.git cd ChatLM-mini-Chinese

安装依赖

pip install -r ./requirements.txt

git clone --depth 1 https://huggingface.co/charent/ChatLM-mini-Chinese

mv ChatLM-mini-Chinese model_save

代码地址:

https://github.com/charent/ChatLM-mini-Chinese

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OQea6DulCdTz1xkDj3l7RbsA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券