首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

OpenAI「假新闻」生成器GPT-2最简Python实现

这是一个简单 Python 软件包,它封装了 OpenAI GPT-2 文本生成模型(特别是它是具有 1.17 亿超参数「较小」版本)现有模型微调和生成脚本。...文本生成示意 该 Python 包包含以下内容,并对其进行了最小程度低级更改: 来自 OpenAI 官方 GPT-2模型管理(MIT 许可证) 来自 GPT-2 中 Neil Shepperd...如果你在云端训练,强烈建议你使用 Colaboratory notebook 或带有 TensorFlow 深度学习图像谷歌计算引擎 VM(因为 GPT-2 模型位于 GCP 上)。...TensorFlow(如 tensorflowtensorflow-gpu) 使用 将模型下载到本地系统示例,在数据集上对它进行微调,然后生成一些文本。...gpt-2-simple 和其它文本生成程序区别 GPT-2 用来生成文本方法 textgenrnn 等其它安装包(特别是纯粹使用 GPU 生成完整文本序列并随后对其进行解码安装包)使用方法略有不同

2K30
您找到你想要的搜索结果了吗?
是的
没有找到

大三学生独自破解逆天AI模型:我只是把撩妹时间,都用来研究机器学习了

GPT-2,一个逆天AI。 今年2月,OpenAI首次对外公布了这个模型存在。...OpenAI解释是,它太过强大,我们不敢放出完整模型……尽管因此被外界嘲笑,但GPT-2仍然封闭至今。 现在,有人单枪匹马,破解了OpenAI不欲人知秘密。 而且,是一个大三学生。...这个模型是GPT“进化版”,最大区别就在于规模大小。GPT-2参数达到了15亿个,使用了包含800万个网页数据集来训练,共有40GB。...△GPT模型 OpenAI研究人员表示,在各种特定领域数据集语言建模测试中,GPT-2都取得了优异分数。...至于15亿参数完整版,作者计划7月1日发布。 现阶段,Connor Leahy同学邀请大家下载试用,跟他一起讨论复现版GPT-2到底还有什改进空间。

48020

逆天GPT-2居然还能写代码(但OpenAI却被无情吐槽)

OpenAI发布了逆天GPT-2,举世皆惊。...纽约大学工程学院助理教授Brendan Dolan-Gavitt发现,GPT-2在学会写英文同时,还悄悄学了一些js脚本语言。 ‏ 证据: ?...Nantas Nardelli也补充说,他俩尝试过很多次,贴出来这次只是效果最好一次,而且这个AI写代码,似乎很容易把js、C++、Python等语言混到一起写。 当然,这里还有个问题。...就是大家尝试模型,都是OpenAI放出缩小版模型,参数只有1.17亿个参数。也许使用完整版GPT-2,AI能够写出更漂亮代码。 完整版和缩小版差距有那么大么? 有的。...最后大家一讨论,明白了: 原来那个有模有样故事,用完整版是用15亿参数完整版GPT-2生成,而不知所云故事,使用缩小版GPT-2生成。 差距真的很明显。

45830

Github项目推荐 | OpenAI文本生成器 - gpt-2

Github项目地址: https://github.com/openai/gpt-2 视频:《OpenAI Text Generator - YouTube》by Siraj Raval 地址:...安装 用Git克隆此项目仓库,然后用 cd 进入目录以获取其余命令 git clone https://github.com/openai/gpt-2.git && cd gpt-2 本机安装 下载模型数据...安装tensorflow 1.12(支持GPU,如果你有GPU并希望它们运行得更快的话) pip3 install tensorflow==1.12.0 或者 pip3 install tensorflow-gpu...--top_k 40 要查看标志说明,请使用: python3 src/interactive_conditional_samples.py -- --help GPT-2 样本 警告:样品未经过滤...虽然我们还没有正式发布GPT-2,但你可以在 gpt-2-samples 文件夹中看到它一些样本。 我们使用默认设置(温度1和无截断)显示无条件样本,温度为0.7,并使用top_k 40进行截断。

1K40

大三学生独自破解逆天AI模型:我只是把撩妹时间,都用来研究机器学习了

GPT-2,一个逆天AI。 今年2月,OpenAI首次对外公布了这个模型存在。...OpenAI解释是,它太过强大,我们不敢放出完整模型……尽管因此被外界嘲笑,但GPT-2仍然封闭至今。 现在,有人单枪匹马,破解了OpenAI不欲人知秘密。 而且,是一个大三学生。...这个模型是GPT“进化版”,最大区别就在于规模大小。GPT-2参数达到了15亿个,使用了包含800万个网页数据集来训练,共有40GB。...△GPT模型 OpenAI研究人员表示,在各种特定领域数据集语言建模测试中,GPT-2都取得了优异分数。...至于15亿参数完整版,作者计划7月1日发布。 现阶段,Connor Leahy同学邀请大家下载试用,跟他一起讨论复现版GPT-2到底还有什改进空间。

48730

OpenAIGPT-2:用Python构建世界上最先进文本生成器简单指南

概述 了解如何使用OpenAIGPT-2框架在Python中构建自己文本生成器 GPT-2是一个最先进NLP框架 我们将学习它是如何工作,然后使用GPT-2实现我们自己文本生成器 介绍 “The...由OpenAI开发GPT-2是一个预训练语言模型,我们可以使用它来完成各种NLP任务,比如: 文本生成 语言翻译 建立问答系统等等 语言模型(LM)是现代自然语言处理重要任务之一。...下面是GPT-2如何与其他类似的NLP模型进行比较: ? 如何配置GPT-2所需环境: 我们将使用具有3.45亿个参数中型模型。你可以从官方OpenAI GitHub存储库下载预培训模型。...这个模型需要使用GPU支持TensorFlow来使它运行得更快。让我们在notebook上安装TensorFlow: !...你也许还想看: ● 知识图谱机器学习|KG入门 -- Part2 建立知识图谱 ● 使用特定领域文档构建知识图谱 | 教程 ● 图像配准:从SIFT到深度学习

2.5K60

语言模型GPT-2挤牙膏式开源,放出774M预训练模型,称是倒数第二版

此前,OpenAI因为担心这个语言模型效果太好被滥用,一直藏着掖着开源,还被网友调侃为“ClosedAI。 刚刚,OpenAI首次放出774MGPT-2大型预训练模型。...但OpenAI关于GPT-2研究还没有止步,和今天774M模型一起问世,还有一份OpenAIGPT-2发布策略及社会影响报告: ?...除了这个774M大型训练模型,此前根本不敢想1558M完整版模型已经在路上了。 预计几个月内就会发布。...GPT-2の各类妙用 发布半年来,不少网友基于GPT-2进行了各类开发,脑洞之大可能连OpenAI都想象不到。 GPT-2其实还学了好几种编程语言。比方,JavaScript。...纽约大学工程学院助理教授Brendan Dolan-Gavitt发现,GPT-2在学会写英文同时,还悄悄学了一些js脚本语言。 ?

60050

AI界最危险武器GPT-2使用指南:从Finetune到部署

大数据文摘授权转载自安迪写作间 作者:Andy 今早一起床就看到François Chollet大神(Keras作者)发推,根据 GPT-2中量模型超长距离记忆想到了一种简单不基于机器学习文本生成方式...此语一出,一下惊起一片反响,立刻出现了挺OpenAI派和反OpenAI 派,双方论证十足,纷纷发文,光那几天我每天都起码得看上一篇关于 GPT-2争论博文。...趁着现在这波热潮,总算是把GPT-2使用相关库都浏览了一遍,顺便自己也finetune了几个模型,发现效果还挺好。此外发现网上也没太多关于GPT-2使用中文资料,因此就分享一下自己经验。...老板先来一盘GPT-2 整个过程大体分四步,首先我们需要先Clone下来nshepperdgpt-2 库,之后准备数据模型,然后再finetune,最后用保存模型来生成样本。...因此我们要先将tensorflow模型转换成 Pytorch模型。

3.1K61

谷歌、OpenAI等警告:BERT、GPT-3等大型语言模型都有一个重大缺陷,很危险...

这项新研究由谷歌OpenAI、苹果、斯坦福、伯克利和东北大学合作完成,研究者证明了:语言模型会大量记忆训练数据,并且只需要对预训练语言模型进行查询,就有可能提取该模型已记忆训练数据。...GPT-2模型本身是由OpenAI在2019年公开发布,用于训练GPT-2训练数据是从公共互联网收集OpenAI曾经指出由于担心GPT-2危险性,所以决定不开源其模型和参数。...研究者测试了许多不同采样策略,其中最成功采样策略生成文本,多种输入短语都有相关性。...其他存储随机数序列包括仅包含在一些文档中git commit hash、用于广告跟踪随机ID和产品型号。 表3给出了9个理想记忆示例,每个示例都是10到87个字符长度随机序列。...谷歌表示,在TensorFlow中,可以通过使用tensorflow/ privacy模块(或与PyTorch或JAX类似的模块)来实现,该模块可以替代现有的优化程序。

1.5K30

本科生60行代码教你手搓GPT大模型,技术介绍堪比教程

你要做,首先是克隆代码库: 然后安装依赖项: 注意,如果你使用是 M1 Macbook,在运行 pip install 之前,你需要在 requirements.txt 中将 tensorflow...更改为 tensorflow-macos。...在这个项目下,文件包括 encoder.py、utils.py、gpt2.py、gpt2_pico.py: encoder.py:包含 OpenAI BPE Tokenizer 代码,直接取自 gpt...设置完成之后,作者开始介绍编码器、超参数、参数一些细节内容。就拿编码器来说,本文编码器和 GPT-2 使用 BPE tokenizer 一样。...合集内容包括: ChatGPT 及 OpenAI  大事件时间轴 概念·真正搞懂 ChatGPT:共 3 篇文章 研究·GPT 家族更迭:共 16 篇文章 八年·OpenAI 历史现在:共 13

99040

逆天语言AI模型来了!编故事以假乱真,问答翻译写摘要都行,横扫各大语言建模任务

由于AI生成假消息太过真实,OpenAI开源动作也变得十分谨慎。以往不同,这一次开源内容,没有完整预训练模型,只放出了一个1.17亿参数“缩小版”。...从人类感官角度来评判,GPT-2效果也出奇得好。 不信?不信一起来考考它。...OpenAI在官方博客中表示,两者相比,GPT-2参数扩大10倍,达到了15亿个,数据量扩大10倍,使用了包含800万个网页数据集,共有40GB。...GPT-2可以用来生成具有误导性新闻报道、自动生成垃圾邮件、伪造内容发布到社交媒体上等等等等。 这个研究,加上先前图像、音频、视频合成生成研究,能够大幅度降低制作虚假内容成本。...其中Ilya Sutskever是OpenAI首席科学家,是AlexNet、seq2seq、AlphaGo、TensorFlow等人工智能领域重要成果共同发明者。

56120

Karpathy 4小时AI大课上线,小白看了都会从零构建GPT-2

接下来,让我们一起来看看这节课讲了什么? 4小时大课,干货满满 最开始部分,Karpathy先介绍了下GPT-2情况。 2019年,OpenAI首次发布了GPT-2模型,并公布了相关论文和代码。...接下来,第一步就是加载GPT-2模型,进入GitHub源代码库,然后点击modle.py。 可以看到,这个模型使用Tensorflow编写。...Karpathy尴尬地表示道,「现在我们很少使用了,直接从更友好Pytorch开始」。...为了更方便地复现,Karpathy还选择使用了Hugging Face上GPT-2代码,其基于Transformer重新搭建,更容易使用。...GPT-2、GPT-3复现对比 最后,睡觉得到结果,第二天再看结果。 模型训练损失也在不断下降,而且GPT-3性能相媲美。 最后,这个4小时大课,小编放这儿了。

11110

五行代码玩转GPT-2,新加坡高中生开源轻量级GPT-2“客户端”

鱼羊 发自 凹非寺 量子位 报道 | 公众号 QbitAI OpenAI会讲故事文本生成模型GPT-2,现在有了更易用封装版本。 轻松上手,轻量级,速度快。...五行代码文本生成 gpt2-client 是 GPT-2 原始仓库包装器。OpenAI 带来功能,gpt2-client 一样能实现,并且这个“客户端”更具可访问性,可理解性,也更加易用。...Rishabh Anand 还放出了 Colab 在线 Demo,涵盖了gpt2-client基本功能,打开浏览器即可食用。 一起来看看效果。...夏天几个月里,我最喜欢事情之一是和我朋友们一起拍照。这意味着很多:我有一个疯狂周末,我一些朋友们在我家里,我拥有朋友和所有这些有趣事情。...这对我来说特别有趣,因为我不知道发生了什么,但我一直在思考我们如何用精彩方式一起做些事。 …] 食用指南 想要亲自体验一下 gpt2-client,并不困难。

91520

热点项目|近期Github热门项目Top5

开发人员提出了两种新、自动化方法来量化这些图像质量,并公开了大量高质量的人脸数据集。 该github库同时也包含算法官方TensorFlow实现。...No2:OpenAI’s Ground-Breaking Language Model – GPT-2 github地址:https://github.com/openai/gpt-2 下面来介绍一种来自于...OpenAI突破性语言模型GPT-2。...2019年2月,GPT-2获得了非官方“最受欢迎”自然语言处理图书馆奖。但他们启动GPT-2方式引起了不少关注,该团队声称该模型工作得很好,但由于害怕恶意使用。他们不能完全开放源代码。...Lazynlp将允许您创建比OpenAI用于培训GPT-2模型数据集更大数据集。使用这个库,您应该能够创建比OpenAI用于GPT-2数据集大数据集。

59340

OpenAI全面拥抱PyTorch,TensorFlow:我哪里比不上它?

OpenAI 表示,他们已全面转向 PyTorch,并统一自家所有模型框架标准。 ? 对于深度学习框架使用,整个人工智能社区大体可以分为两大阵营:TensorFlow 和 PyTorch。...OpenAI——一个研究过 AI 打 Dota2、推出 NLP 预训练模型 GPT-2、以及让机器人单手还原魔方等项目的人工智能研究机构宣布,他们将会全面转向 PyTorch。...在此之前,他们会基于框架本身特点和优势在不同项目中使用不同框架。 OpenAI 认为,为了让团队更容易地创建和共享模型及其应用,使用 PyTorch 是更好选择。...TF 问题多多,用户转向 PyTorch 诚然, TensorFlow 相比,PyTorch 仍在存在性能、工业生态支持等方面的短板。...另外, TensorFlow 相比,PyTorch 设计和维护者更懂得如何在灵活性、易用性和采纳新技术方面保持平衡。 接下来,社区其他成员将作何抉择?TensorFlow 可要加把劲啦!

1K20
领券