我试图复制this demo的结果,它的作者用just编写了下面的文本:
gpt.add_example(Example('apple', 'slice, eat, mash, cook, bake, juice'))
gpt.add_example(Example('book', 'read, open, close, write on'))
gpt.add_example(Example('spoon', 'lift, grasp, scoop, slice'))
gpt.add_example(Example('apple', 'pound, grasp, lift'))
我只能通过Huggingface Transformer访问GPT-2。我如何在Huggingface上启动GPT-2 large来复制上述示例?问题是,使用this时,不能分别使用输入和相应的输出(正如上面的GPT-3演示的作者所做的那样)。
类似地,this tutorial描述了如何使用Huggingface,但没有示例清楚地说明如何使用输入与输出示例来准备它。
有人知道怎么做吗?
所需的输出:使用GPT-2返回类似的内容,对于输入“土豆”,输出"peel,slice,cook,mash,bake“(如GPT-3demo:https://www.buildgpt3.com/post/41/所示)。显然,输出动词的确切列表不会与GPT-2和GPT-3是相同的模型。
发布于 2021-02-03 18:17:22
GPT模型唯一能做的就是预测后面应该跟什么词。从技术上讲,没有输入和输出,它是一个只有解码器的模型,所以它只有输出。启动模型意味着您将模型的输出强制为您想要的内容,然后让模型继续生成更多的文本。
演示中发生的情况是:
What can I do with an apple? slice eat, mash, cook, bake, juice
What can I do with a book? read, open, close, write on
What can I do with a spoon? lift, grasp, scoop, slice
knife
)时,您可以创建一个与以下示例类似的句子:What can I do with a knife?
What
开头的新行,或者直到它以一种奇怪的方式中断,这在随机模型中总是会发生的。(希望模型得到了您在启动示例中所指的模式。)下面是来自HuggingFace's demo的一个使用GPT-2的示例。粗体文本是由模型生成的。
https://stackoverflow.com/questions/66020205
复制相似问题