首页
学习
活动
专区
圈层
工具
发布
技术百科首页 >LLM >常见的大语言模型?

常见的大语言模型?

词条归属:LLM

目前比较常见的大语言模型有以下几种:

GPT系列

GPT(Generative Pre-trained Transformer)是由OpenAI推出的一系列大型预训练语言模型。其中最新的版本是GPT-3,拥有1750亿个参数,可以生成高质量的自然语言文本。

BERT系列

BERT(Bidirectional Encoder Representations from Transformers)是由Google推出的一系列预训练语言模型。BERT的特点是采用双向编码器,可以同时考虑文本的前后内容,从而提高模型的性能。

XLNet

XLNet是由CMU、Google Brain等单位共同推出的一种预训练语言模型。它采用自回归和自编码两种方式进行训练,可以处理更长的文本序列,并在多项自然语言处理任务中取得了优异的性能。

RoBERTa

RoBERTa是Facebook推出的一种预训练语言模型。它在BERT的基础上做了一些改进,如更长的训练时间、更大的训练数据等,从而取得了更好的性能。

相关文章
常见大语言模型解析:技术细节、应用与挑战
文章链接:https://cloud.tencent.com/developer/article/2467252
小说男主
2024-11-21
3820
常见的大模型评测数据集
https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
码之有理
2024-01-16
10.1K0
大语言模型-01-语言模型发展历程-03-预训练语言模型到大语言模型
语言模型通常是指能够建模自然语言文本生成概率的模型。 从语言建模到任务求解,这是科学思维的一次重要跃升。 语言模型的发展历程如下:
IT从业者张某某
2025-03-15
5370
大语言模型的微调策略
尽管大语言模型展示出强大的能力,但在特定任务领域,它们往往无法达到最佳效果。通过微调,可以将特定领域的数据集输入模型中,使模型学习该领域的知识,从而优化自身在特定领域的 NLP 任务中的表现,如情感分析、实体识别、文本分类和对话生成等。本文章讲大语言模型的微调策略及基于 ChatGPT 的微调。
猿人谷
2025-10-21
2410
基于大语言模型的应用
在AI领域,大语言模型已成为备受瞩目的焦点,尤其在自然语言处理(NLP)领域,其应用愈发广泛。BLM作为一种多任务语言建模方法,旨在构建一个具备多功能的强大模型。在给定文本和查询条件下,该模型能够充分利用上下文中的丰富信息,如查询内容、特定任务或领域知识,以生成准确而恰当的答案。这一特性使得BLM在优化自然语言处理任务中展现出巨大潜力。
用户10685580
2024-04-30
2980
点击加载更多
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
领券