首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >对新数据进行GPT-2/3微调

对新数据进行GPT-2/3微调
EN

Stack Overflow用户
提问于 2021-05-28 08:35:33
回答 2查看 1.8K关注 0票数 0

我正试图用新的数据集来训练OpenAI的语言模型。这里有人在这方面有经验吗?我的想法是给GPT-2或3(虽然我没有API访问3)的教科书,培训它,并能够“讨论”书的内容与语言模型之后。我不认为我需要改变任何的超参数,我只是需要更多的数据在模型中。

有可能吗??

非常感谢任何(也是概念性的)帮助!

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2021-05-28 09:18:38

目前,GPT-3无法像GPT-2或GPT-Neo /Neo那样被细化。这是因为模型保存在他们的服务器上,并且请求必须通过API进行。一位黑客新闻帖子表示,GPT-3正在计划中或正在建设中。

话虽如此,OpenAI的GPT-3提供了应答API,您可以提供上下文文档(多达200个文件/1GB)。然后,API可以用作与其进行讨论的一种方式。

编辑: Open最近推出了微调测试版。因此,https://beta.openai.com/docs/guides/fine-tuning将是对这个问题最好的回答,通过对该链接的描述来完成。

票数 2
EN

Stack Overflow用户

发布于 2021-05-28 08:46:09

你绝对可以重新训练GPT-2。你只是为了语言生成的目的而训练它,还是你有一个特定的下游任务,你想要适应GPT-2?

这两项任务都是可能的,而且不太困难。如果您想要训练语言生成模型,即让它生成特定主题的文本,您可以按照训练前阶段的训练来训练模型。这意味着使用交叉熵损失函数对其进行下一个令牌预测任务的训练。只要您有一个数据集,并且具有良好的计算能力,这就不难实现。

当你说,“讨论”这本书的内容时,在我看来,你是在寻找对话模式/聊天机器人。聊天机器人的训练方式不同,如果您确实在寻找对话模型,您可以查看DialoGPT和其他模型。他们可以被训练成为面向任务的对话代理。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/67735561

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档