首页
学习
活动
专区
圈层
工具
发布
首页标签huggingface-transformers

#huggingface-transformers

从 0 搭建 LLM 不再难!这个 PyTorch 项目帮你吃透大模型底层逻辑

fangpin

如果你曾想深入理解大语言模型(LLM)的 “五脏六腑”,却被框架封装的黑盒接口、复杂的源码结构劝退;如果你希望亲手实现 Transformer 的每一个组件,而...

15600

十亿参数推荐Transformer的规模化实践

用户11764306

为解决这些问题,需要利用非平凡的机器学习模型。神经网络是强大的机器学习工具,特别适用于处理大量非结构化数据。

13110

AI如何实现舆情监测的“精准制导” | 2025年AI赋能舆情系统的五大核心参数|2025年中国舆情监测系统TOP5榜单(技术版)

用户8027603

我们今天不聊传统的舆情抓取,我们聊点更硬核的:AI(人工智能)是如何重塑舆情监测的战场,并为您争取战略性优势的?

33210

让Transformer关注词序的新位置编码方法

用户11764306

Transformer是一种神经网络架构,因其能够识别长距离依赖关系而在自然语言处理任务中表现出色。例如,在一个包含"rented"单词的句子中,即使"rent...

10310

Huggingface Transformers反序列化漏洞利用详解 CVE-2024-11392

qife122

10710

ViT与DiT核心技术详解:Transformer如何重塑视觉与生成世界​

聚客AI

当我们在欣赏交响乐时,我们不会只关注某一种乐器的声音,而是感受整体和谐——小提琴的悠扬、大提琴的深沉、长笛的清脆,这些声音相互呼应,共同编织出动人的旋律。在AI...

58810

从零理解Transformer:原理、架构与PyTorch逐行实现

聚客AI

在人工智能领域,Transformer架构无疑是大模型发展史上最重要的里程碑之一。它不仅构成了当前大模型处理任务的基础架构,更是深入理解现代大模型系统的关键。今...

2.7K20

Transformer模型中的线性层与激活函数解析

用户11764306

注意力机制是Transformer模型的标志性组件,但并非唯一构建模块。线性层与激活函数同样至关重要。本文将介绍:

40710

利用Transformer模型提升商品检索效果

用户11764306

当顾客在商品搜索结果列表中点击某个商品时,意味着该商品比未点击的结果更相关。"学习排序"模型利用这种隐式反馈来改进搜索结果,通过"成对"(比较结果对)或列表式(...

18210

基于Transformer的百万级文本分类技术

用户11764306

文本分类是自然语言理解领域最基础的任务。例如,某中心智能助手的用户请求需要按领域分类(天气、音乐、智能家居等),许多自然语言处理应用依赖词性分类解析器。对于类别...

11210

预训练速度提升50%?MoE的加速秘密全揭露

聚客AI

近年来,混合专家模型(Mixture of Experts, MoE)技术在大模型领域迅速崛起,成为解决计算效率和扩展性问题的关键创新。我将从核心原理、显著优势...

41110

局部注意力机制提升Transformer长序列时间预测

用户11764306

Transformer已成为自然语言处理领域的主流架构,其在时间序列分析(尤其是长周期预测)中也展现出卓越的性能与效率。本文提出局部注意力机制(LAM),一种专...

14710

系统拆解LLM的核心技术栈,助您掌握从模型选型到部署优化的全流程

聚客AI

在人工智能的浪潮中,大型语言模型(LLM)已成为推动产业变革的核心引擎。作为AI应用开发工程师,理解大模型的内在机制和开发范式至关重要。本文将从零开始,系统拆解...

93020

TTS-1技术报告:基于Transformer的文本转语音模型

用户11764306

我们介绍了Inworld TTS-1,这是一组两个基于Transformer的自回归文本转语音(TTS)模型。我们最大的模型TTS-1-Max拥有88亿参数,专...

30710

利用Transformer模型提升产品检索效果

用户11764306

当顾客点击产品搜索结果列表中的某个商品时,暗示该商品优于未点击项。传统"学习排序"模型通过比较点击/未点击结果的"成对比较"或"列表排序"方式利用这种隐式反馈。...

11500

统一多模态 Transformer 架构在跨模态表示学习中的应用与优化

一键难忘

腾讯云TDP | KOL (已认证)

随着人工智能的发展,文本与图像等多模态数据的统一建模成为研究热点。统一多模态 Transformer(Unified Multimodal Transforme...

41710

LLM学习笔记02:两行Python代码,如何实现情感分析

叫我阿柒啊

腾讯云TDP | 产品KOL (已认证)

在上一篇文章LLM学习笔记:如何理解LLM中的Transformer架构中,我们了解了在GPT、stable diffusion以及情感分析等AI领域常见的 T...

52433

LLM学习笔记:如何理解LLM中的Transformer架构

叫我阿柒啊

腾讯云TDP | 产品KOL (已认证)

AI已经在我们的工作和生活中全面开花了,好久之前在GPT、混元大模型出来的时候,就想着能够学习一下关于AI的知识,所以这次打算从LLM开始学习,就问DeepSe...

49120
领券