首页
学习
活动
专区
圈层
工具
发布

Tokenization谢幕?H-Net登场:Mamba作者新作正面硬刚Transformer

尽管近年来语言模型取得了惊人进展,这一进步主要源于从面向特定任务的专用模型转向基于强大架构(如 Transformer)的通用模型——这些模型能从原始数据中直接学习一切。然而,诸如分词(tokenization)之类的预处理步骤仍是构建真正端到端基础模型的障碍。

「Mamba」作者之一的Albert Gu最新Paper又提出一系列新技术,实现了一种动态分块机制(dynamic chunking):它能自动学习内容与上下文相关的切分策略,并与模型的其余部分联合训练。将该机制嵌入显式的层级网络(hierarchical network:H-Net),即可用一个完全端到端训练的模型替代“分词语言模型反分词”的传统流水线。

(左)两级分层结构(S = 2)的 H-Net 整体架构概览。(右)动态分块(DC)示意图。

(右下)chunking层关键组件:

(a) 路由模块——动态决定分块边界;

(b) 下采样器——依据边界指示符保留关键向量,缩短序列长度并保留语义重要位置。

(右上)dechunking层关键组件:

(c) 平滑模块——将离散块插值为连续表示;

(d) 上采样器——依据边界指示符将压缩向量恢复至原始分辨率。

H-Net 所划边界的可视化。(a) 单阶段 H-Net 主要在“类空格”字节处划边界,与 SpaceByte 非常相似。(b) 两阶段 H-Net 的第一阶段同样聚焦于类空格字节和每个单词的首字符;第二阶段则将文本划分为更有意义的单元,如单词或编号(例如 ‘(ii)’)。还观察到,它常将多个语义相关的单词合并为一个块,例如 ‘the backbone’ 和 ‘such as’。

在算力与数据规模相匹配的条件下,仅在byte level运行的单级 H-Net 就能超越基于 BPE token 的强 Transformer 语言模型;将层级扩展为多级后,模型通过抽象层级的叠加进一步提效,数据扩展性显著优于传统模型,性能可与两倍参数量的 token 级 Transformer 相媲美。

具体实验结果:

Dynamic Chunking for End-to-End Hierarchical Sequence Modelinghttps://arxiv.org/pdf/2507.07955https://goombalab.github.io/blog/2025/hnet-past/

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OjskEHkthuJBgOnXc1qwieWQ0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券