首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

GPT2中文新闻标题生成

向AI转型的程序员都关注了这个号 机器学习AI算法工程   公众号:datayx 项目描述 本项目是一个带有超级详细中文注释的基于GPT2模型的新闻标题生成项目。...本项目参考了GPT2-Chinese、GPT2-chitchat、CDial-GPT、GPT2等多个GPT2开源项目,并根据自己的理解,将代码进行重构,添加详细注释,希望可以帮助到有需要的人。...本项目使用HuggingFace的transformers实现GPT2模型代码编写、训练及测试。...本项目通过Flask框架搭建了一个Web服务,将新闻摘要生成模型进行工程化,可以通过页面可视化地体验新闻标题生成效果。 本项目的代码详细讲解,可以自行阅读代码,也可查看代码注释介绍。...本项目的目的是带领大家走一遍GPT2生成模型的训练、测试及部署全部流程。

1.4K50

【Github】GPT2-Chinese:中文GPT2训练代码

作者是AINLP交流群里的杜则尧同学,提供了一份中文GPT2训练代码,使用BERT的Tokenizer。可以写诗,新闻,小说,或是训练通用语言模型。支持字为单位或是分词模式。支持大语料训练。...中文GPT2训练代码,使用BERT的Tokenizer。可以写诗,新闻,小说,或是训练通用语言模型。支持字为单位或是分词模式。支持大语料训练。 项目状态 目前项目主要架构已经稳定。...文件结构 generate.py 与 train.py 分别是生成与训练的脚本。 train_single.py 是 train.py的延伸,可以用于一个很大的单独元素列表(如训练一本书)。...eval.py 用于评估生成模型的ppl分值。 generate_texts.py 是 generate.py 的延伸,可以以一个列表的起始关键词分别生成若干个句子并输出到文件中。...注意 本项目使用Bert的tokenizer处理中文字符。 如果使用分词版的tokenizer,不需要自己事先分词,tokenizer会帮你分。

8.9K50
您找到你想要的搜索结果了吗?
是的
没有找到

【Github】GPT2-Chinese:中文GPT2训练代码

作者是AINLP交流群里的杜则尧同学,提供了一份中文GPT2训练代码,使用BERT的Tokenizer。可以写诗,新闻,小说,或是训练通用语言模型。支持字为单位或是分词模式。支持大语料训练。...中文GPT2训练代码,使用BERT的Tokenizer。可以写诗,新闻,小说,或是训练通用语言模型。支持字为单位或是分词模式。支持大语料训练。 项目状态 目前项目主要架构已经稳定。...文件结构 generate.py 与 train.py 分别是生成与训练的脚本。 train_single.py 是 train.py的延伸,可以用于一个很大的单独元素列表(如训练一本书)。...eval.py 用于评估生成模型的ppl分值。 generate_texts.py 是 generate.py 的延伸,可以以一个列表的起始关键词分别生成若干个句子并输出到文件中。...注意 本项目使用Bert的tokenizer处理中文字符。 如果使用分词版的tokenizer,不需要自己事先分词,tokenizer会帮你分。

4K20

全套解决方案:基于pytorch、transformers的中文NLP训练框架,支持大模型训练和文本生成,快速上手,海量训练数据!

全套解决方案:基于pytorch、transformers的中文NLP训练框架,支持大模型训练和文本生成,快速上手,海量训练数据!...模型训练 中文名称 文件夹名称 数据 数据清洗 大模型 模型部署 图解 中文文本分类 chinese_classifier ✅ ✅ ✅ ❌ ✅ 中文gpt2 chinese_gpt2 ✅ ✅ ✅ ✅ ❌...中文clip chinese_clip ✅ ✅ ✅ ❌ ✅ 图像生成中文文本 VisionEncoderDecoderModel ✅ ✅ ✅ ❌ ✅ vit核心源码介绍 vit model ❌ ❌ ❌...3.中文gpt2 本文,将介绍如何使用中文语料,训练一个gpt2 可以使用你自己的数据训练,用来:写新闻、写古诗、写对联等 我这里也训练了一个中文gpt2模型,使用了612万个样本,每个样本有512...https://huggingface.co/gpt2 https://huggingface.co/gpt2-large 4.中文clip模型 本文将介绍,如何从0到1的训练一个中文clip模型。

77530

使用深度学习模型创作动漫故事,比较LSTM和GPT2的文本生成方法

通过生成动画概要,我探索了两种文本生成技术,首先是使用相对陈旧的LSTM,然后使用经过微调的GPT2。 ? 在这篇文章中,您将看到AI创建这种废话开始的过程。。。...这只是为了使培训更容易(请查看GPT2部分以了解更多细节)。 删除符号。 一些描述也包含日文,所以这些也被删除了。 LSTM方式 传统的文本生成方法使用循环的LSTM单元。...GPT2没有同时使用transformer 编码器和解码器堆栈,而是使用了一个高栈的transformer 解码器。根据堆叠的解码器数量,GPT2转换器有4种变体。 ?...代码 我已经将GPT2与Hugging Face库中的线性模型一起用于文本生成。在这4个变体中,我使用了GPT2 small(具有117M个参数)。...LSTM和GPT2生成的提要之间的差异非常大!该模型不仅能够很好地捕获长期依赖关系,而且上下文始终保持不变。

97430

【NLP论文速递】文本生成中文诗歌生成、邮件主题生成、感知对话生成、文摘生成、会话响应生成

2 中文诗歌生成 本文为了将修辞学应用到中文汉语诗歌的生成上,本文提出了一种用于现代汉语诗歌生成的修辞控制编码器。...中文分析链接:「自然语言处理(NLP)机器翻译」ACL&&中科院&&微信AI团队 3 电子邮件主题生成 本文提出并研究了电子邮件主题行生成任务:从电子邮件正文中自动生成电子邮件主题行。...中文分析链接:【真心推荐】「自然语言处理(NLP)」ACL && 阿里团队(舆论、立场检测)&& 耶鲁(电子邮件主题生成) 4 感知对话生成 本文的主要贡献有:1、提出了一种新的知识感知对话生成模型...中文分析链接:(含源码)「自然语言处理(NLP)」华南理工 && 腾讯AI Lab(基于知识库的感知对话生成) 5 文摘生成 本文提出了一种新的基于预训练的编码-解码器框架,该框架可以根据输入序列以两阶段的方式生成输出序列...中文分析链接:https://www.cnblogs.com/lauspectrum/p/10961112.html 6 会话响应生成 神经模型已成为对话响应生成的重要方法之一。

1.5K10

解决Linux html生成图片中文乱码

前言 最近搞了一个需求,功能大概是通过html生成图片。功能是挺简单的吧? 本地测试没什么问题,但是发服务器上,发现html生成的imgae中文乱码。 解决过程 首先google了一圈 ?...类似功能的框架,也出现了中文乱码问题,但是图片上渲染的中文是框框的形式。 ? 所以我们也可以排除掉乱码问题,因为乱码应该会展示字体,只是我们读不懂,这个框框说明缺少字库!...google一圈发现的却缺少了中文字体库,生成图片缺少什么字体就全部准备好。 像我这里缺少微软雅黑,宋体等。...这里因为我的服务器已经装好中文字体插件了,因此直接进入正题,没有的可以看下这个文章https://blog.csdn.net/wlwlwlwl015/article/details/51482065 检查是否安装中文字体插件命令

7.8K51

这款“狗屁不通”文章生成器火了,效果确实比GPT 2差太远

AI科技大本营采访了CSDN博客专家@小宋是呢进行解读: “狗屁不通生成器”是一个文本生成器,用来生成一些中文文字用于 GUI 开发时测试文本渲染。...此外,GPT 2 还有一个中文版本,相比之下,GPT2 与 BullshitGenerator 不同之处在于前者使用了 BERT 或 BPE 编译器,但同样不需要算法基础,只要简单 clone 运行即可...体现在文本的连贯性和含义上,虽然生成文本的质量不高,但它也满足了生成一些中文文字用于 GUI 开发时测试文本渲染的要求。...GPT2 中文项目:https://github.com/Morizeyao/GPT2-Chinese 文本生成的未来 GPT 2 的横空出世让大家看到了 AI 在文本生成方面的潜力。...从另一个思路来讲,以 GPT2 为代表的 NLP 模型现在已经可以生成以假乱真的文本,未来又该如何克服目前的挑战,生成更高质量的作品,同时能够保证安全?

2.8K30
领券