首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
首页标签huggingface-transformers

#huggingface-transformers

LLM学习笔记02:两行Python代码,如何实现情感分析

叫我阿柒啊

腾讯云TDP | 产品KOL (已认证)

在上一篇文章LLM学习笔记:如何理解LLM中的Transformer架构中,我们了解了在GPT、stable diffusion以及情感分析等AI领域常见的 T...

23533

LLM学习笔记:如何理解LLM中的Transformer架构

叫我阿柒啊

腾讯云TDP | 产品KOL (已认证)

AI已经在我们的工作和生活中全面开花了,好久之前在GPT、混元大模型出来的时候,就想着能够学习一下关于AI的知识,所以这次打算从LLM开始学习,就问DeepSe...

21120

Linguists Should Find Self-Attention Intuitively Familiar

立委

For linguists bewildered by large language models (LLMs), the confusion often st...

7010

Transformer 和注意力机制简介

立委

基础大模型通过原始大数据的“自监督学习”(self-srupervised learning),利用多层神经网络,获得数据相关的知识。自监督学习是一种特别的监督...

28010

文档图像矫正任务的前沿进展:引入Transformer框架、极坐标的思路

合合技术团队

在《文档数字化采集与智能处理:图像弯曲矫正技术概述》一文中,我们介绍了文档图像矫正技术的发展沿革与代表性方案。随着文档智能处理的需求逐步升级,文档图像去畸变技术...

14510

Transformer 模型示例

软件架构师Michael

Transformer 架构是现代深度学习中非常重要的模型,广泛应用于自然语言处理(NLP)和计算机视觉(CV)领域。以下是一个使用 Python 和 PyTo...

29510

闲聊AI:Transformer 短篇故事之一

蛋先生DX

腾讯 | 前端研发 (已认证)

蛋先生:是的,它是 Google 在2017年发表的一篇名为“Attention Is All You Need”的论文中提出的神经网络架构

8401

使用Python实现深度学习模型:智能广告创意生成

Echo_Wish

在数字营销领域,广告创意的质量直接影响广告的效果和转化率。随着人工智能技术的发展,深度学习在广告创意生成方面展现出了巨大的潜力。本文将介绍如何使用Python实...

15010

Mixtral混合专家模型

aaronwjzhao

模型地址:mistralai (Mistral AI_) (huggingface.co),需要在这个网页上申请权限(地址填国外)

16410

Llama3.1技术报告解读

aaronwjzhao

Llama3.1共开源了8B、70B、405B三种参数量的模型,三个模型具体信息如下图,其中405B除了BF16精度,还有FP8量化版模型,针对8B额外开源了经...

4.5K101

MInference:通过动态稀疏Attention加速长文本推理

aaronwjzhao

由于注意力机制的二次复杂度,举例来说(如图1 a 所示),在单台装有 A100 的机器上为 LLaMA-3-8B 提供服务时,如果提示有 30 万个 token...

1.1K21

大语言模型--Llama3 token结束符问题

aaronwjzhao

结束符是一个句子(prompt)的结尾标记,再大语言模型中,句子中的每个单词都会被编码成数字才能被模型处理。同样的,结尾标记也会被编码成一个数字。再Meta给的...

1.1K11

大语言模型--评价指标

aaronwjzhao

衡量语言建模能力的重要指标,通过计算给定文本序列概率的倒数的几何平均,来衡量模型对于语言的建模能力。基础公式如下:

80210

大语言模型--KV Cache量化论文

aaronwjzhao

论文地址:[2402.02750] KIVI: A Tuning-Free Asymmetric 2bit Quantization for KV Cache ...

89910

大语言模型--Llama3新特性

aaronwjzhao

词表大小从32000增加到128256,这也是导致参数量从7B增至8B的主要原因。更大的词表使得模型涵盖的语言更多、更加通用

25510

【hf-mirror】不需要HuggingFace也能实现模型自由实践

Freedom123

随着大模型的发展,越来越多人员参与到大模型炼丹和实践中,但HuggingFace在国内无法方便访问,带来不少问题。

1.6K10

本地运行面壁智能的“贺岁模型”:MiniCPM 2B

soulteary

简单聊聊可以在端侧运行的 Mini CPM 2B SFT / DPO 版本的模型。

90610

大语言模型--张量并行原理及实现

aaronwjzhao

NCCL是一个Nvidia专门为多GPU之间提供通讯的通讯库,或者说是一个多GPU卡通讯的框架 ,提供了包括AllReduce、Broadcast、Reduce...

2.9K36

节省时间:AI 模型靠谱下载方案汇总

soulteary

这篇文章,想分享下我日常是如何下载模型的,包括下载来源和工具使用细节,希望对折腾模型的你也有帮助。

1.6K20

大语言模型--开源数据集

aaronwjzhao

Huggingface开源大模型排行榜: Open LLM Leaderboard - a Hugging Face Space by HuggingFaceH...

1.1K20
领券