首页
学习
活动
专区
工具
TVP
发布

相约机器人

专栏作者
664
文章
1044209
阅读量
52
订阅数
OpenAI 研究人员为语言模型构建了一个高效的框架来完成文档中的中间空白
假设有一个不完整的代码,希望编码助手自动填充它,或者已经想到了文档的开头和结尾,并且无法想到要在文档中间写一些有用的东西。可用于语言模型的最先进的框架无法有效地做到这一点,尽管它们非常擅长完成提示。OpenAI 的研究人员展示了一种通过修改现有框架使语言模型能够在中间填充文本(FIM - Fill in the middle)的方法。
代码医生工作室
2022-11-17
6770
Deepmind 推出 Flamingo:用于多模态机器学习研究的开放式单一视觉语言模型 (VLM)
智力衡量一个人仅使用几条简单指令就能多快适应新环境。尽管两者之间存在对比,但孩子们可能会在看到书中动物的几张照片后认出动物园里真正的动物。另一方面,典型的视觉模型还不能反映这种人类智力水平。需要接受数以万计已为该任务明确注释的示例的训练。如果目标是对图像中的动物进行计数和识别,例如“三只斑马”,则必须收集数千张照片,并用它们的数量和物种注释每张图像。每次面对新工作时都需要训练新模型是最主要的缺点,这使得该过程效率低下、成本高昂。
代码医生工作室
2022-06-07
1.9K0
CMU 研究人员开源“PolyCoder”:具有 2.7B 参数的基于机器学习的代码生成器
语言模型 (LM) 通常用于自然语言文献中,以将概率分配给标记序列。LM 最近在用编程语言编写的源代码建模方面表现出出色的性能。这些模型特别擅长代码完成和从自然语言描述生成代码等工作。对于基于 AI 的编程支持,当前最先进的代码大语言模型已显示出巨大的改进。其中最大的模型之一 Codex 已被实现为 IDE 内的开发人员助手,可根据用户的上下文在真实世界的生产工具 GitHub Copilot 中自动编写代码。
代码医生工作室
2022-04-14
1.4K0
CMU 研究人员开源“PolyCoder”:具有 2.7B 参数的基于机器学习的代码生成器
语言模型 (LM) 通常用于自然语言文献中,以将概率分配给标记序列。LM 最近在用编程语言编写的源代码建模方面表现出出色的性能。这些模型特别擅长代码完成和从自然语言描述生成代码等工作。对于基于 AI 的编程支持,当前最先进的代码大语言模型已显示出巨大的改进。其中最大的模型之一 Codex 已被实现为 IDE 内的开发人员助手,可根据用户的上下文在真实世界的生产工具 GitHub Copilot 中自动编写代码。
代码医生工作室
2022-04-14
1.4K0
2022 年新兴深度学习趋势
在当今行业,人工智能和机器学习被视为技术变革的基石。由于将机器学习算法纳入其运营,企业变得更加智能和高效。随着计算领域的下一次范式转变正在进行中,深度学习的进步引起了行业专家和 IT 公司的关注。
代码医生工作室
2022-03-07
1.9K0
OpenAI 发布一项新功能,允许开发人员自定义 GPT-3,其强大的自然语言处理 (NLP) 模型
GPT-3 是 OpenAI 开发的高级自然语言处理模型。它返回自然语言文本完成以响应任何文本请求,例如短语或句子。开发人员在他们的应用程序中使用 GPT-3(通过应用程序编程 (API) 按需收费)来完成文本翻译和软件代码开发等任务。
代码医生工作室
2021-12-22
1.1K0
微软研究院推出“Tutel”:一个促进大规模 DNN(深度神经网络)模型开发的高性能 MoE 库
“专家混合 (MoE) 架构是一种深度学习模型架构,其中计算成本与参数数量成正比,允许更简单的扩展”。MoE 是目前唯一一种已被证明可以将深度学习模型扩展到数万亿个参数的方法,为能够学习更多信息的模型铺平了道路,并为计算机视觉、语音识别、自然语言处理和机器翻译系统等提供动力可以以新的方式帮助人们和组织的应用程序。
代码医生工作室
2021-12-01
1.1K0
Hugging Face 推出“数据集”:用于自然语言处理 (NLP) 的轻量级社区库
随着研究人员提出新的目标、更大的模型和独特的基准,公开可用的 NLP(自然语言处理)数据集的规模、种类和数量迅速扩大。精选数据集用于评估和基准测试;监督数据集用于训练和微调模型;预训练和语言建模需要大量的无监督数据集。除了注释方法之外,每个数据集类型都有不同的规模、粒度和结构。
代码医生工作室
2021-11-16
9780
GPT-4参数将达10兆!这个表格预测全新语言模型参数将是GPT-3的57倍
作者认为,GPT-4的参数或许可以达到10T,是现在GPT-3模型的57倍还多,而GPT-NeoX的规模则可以和GPT-3持平。
代码医生工作室
2021-07-16
1.3K0
Google AI 推出 ByT5:用于 NLP 任务的预训练字节到字节模型
谷歌研究人员的新研究建议修改传统的转换器架构,以在自然语言处理 (NLP) 中处理字节序列。新的具有竞争力的字节级模型可以有效平衡当代大型语言模型的计算成本权衡。
代码医生工作室
2021-06-15
1.4K0
26亿参数,智源、清华开源中文大规模预训练模型
自 2018 年谷歌发布 BERT 以来,预训练模型在自然语言处理(NLP)领域逐渐成为主流。今年 5 月份,OpenAI 推出的史上最大 AI 模型 GPT-3 更是引起了大量讨论。但是,目前 NLP 领域的预训练模型多针对英语语言,以英语语言数据为训练数据,例如 GPT-3:
代码医生工作室
2020-11-20
8440
超越谷歌BERT!依图推出预训练语言理解模型ConvBERT,入选NeurIPS 2020
今年 5 月,Open AI 发布了非常擅长「炮制出类似人类的文本」的 GPT-3,拥有破天荒的 1750 亿参数,一时被业界视为最强大的人工智能语言模型。
代码医生工作室
2020-11-20
5190
NVIDIA NeMo:一个开源工具包,可通过三行代码开发最先进的会话式AI模型
NVIDIA的开源工具包NVIDIA NeMo(神经模型)是朝着对话型AI发展迈出的革命性一步。它基于PyTorch,允许人们快速构建,训练和微调对话式AI模型。
代码医生工作室
2020-10-23
1.7K0
性能媲美BERT,但参数量仅为1/300,这是谷歌最新的NLP模型
在过去的十年中,深度神经网络从根本上变革了自然语言处理(NLP)领域的发展,但移动端有限的内存和处理能力对模型提出了更高的要求。人们希望它们可以变得更小,但性能不打折扣。
代码医生工作室
2020-09-28
5630
从机器学习,深度学习和人工智能领域解密三篇研究论文,这对上个月产生了影响。
BERT 等预训练语言模型在自然语言理解(Natural Language Understanding, NLU)的许多任务中均表现出了卓越的性能。
代码医生工作室
2020-09-04
5480
GPT-3,价值460万美元的语言模型
本文作者是 GPT-2 的热心用户,GPT-2 风靡 AI 领域的那段时间,他撰写了不少相关文章。然而当 GPT-3 的论文发布后,身为忠实用户的他却感觉到了失望,本文他将深扒 GPT-3 中那些令人失望的地方。另注:这篇文章是作者最近在 tumblr 上发表的两篇文章的汇总。
代码医生工作室
2020-06-17
9050
复旦邱锡鹏团队最新成果fastHan:基于BERT的中文NLP集成工具
fastHan 是基于 fastNLP 与 PyTorch 实现的中文自然语言处理工具,像 spacy 一样调用方便。其内核为基于 BERT 的联合模型,其在 13 个语料库中进行训练,可处理中文分词、词性标注、依存句法分析、命名实体识别四项任务。
代码医生工作室
2020-06-17
1.2K0
用AI实现C++、Java、Python代码互译,运行成功率最高达80.9%
因为新冠疫情的缘故,美国一些地区的失业救济系统不堪重负,而这些系统都是上古语言COBOL写的。
代码医生工作室
2020-06-16
7880
GitHub超过9800star!学习Pytorch,有这一份资源就够了!强推!
无论你是从事自然那语言处理方向,还是计算机视觉方向,你都逃不过用深度学习框架是实现自己的想法,做实验验证结论。
代码医生工作室
2020-05-14
3470
腾讯微信团队开源推理加速工具TurboTransformers
近日,腾讯正式宣布开源 Transformer 推理加速工具 TurboTransformers。该工具是面向自然语言处理领域中 Transformers 相关模型丰富的线上预测场景所提出的加速方案,已经在微信、腾讯云、QQ 看点等产品的线上服务中广泛应用,这是腾讯通过 GitHub 对外开源的第 100 个项目。
代码医生工作室
2020-05-09
6880
点击加载更多
社区活动
RAG七天入门训练营
鹅厂大牛手把手带你上手实战
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档