首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Transformers 4.37 中文文档(六十一)

lengths(形状(batch_size,)torch.LongTensor,可选)— 每个句子长度,可用于避免在填充标记索引上执行注意力。...lengths(形状(batch_size,)torch.LongTensor,可选)— 每个句子长度,可用于避免在填充标记索引上执行注意力。...lengths(形状(batch_size,)torch.LongTensor,可选)— 每个句子长度,可用于避免在填充标记索引上执行注意力。...lengths(形状(batch_size,)torch.LongTensor,可选)— 每个句子长度,可用于避免在填充令牌索引上执行注意力。...lengths(形状(batch_size,)tf.Tensor或Numpy数组,可选)- 每个句子长度,可用于避免在填充标记索引上执行注意力。

19810

Transformers 4.37 中文文档(三十三)4-37-中文文档-三十三-

lengths (torch.LongTensor,形状 (batch_size,),可选) — 每个句子长度,可用于避免在填充标记索引上执行注意力。...lengths (torch.LongTensor,形状 (batch_size,),可选) — 每个句子长度,可用于避免在填充标记索引上执行注意力。...lengths(形状(batch_size,)torch.LongTensor,可选)— 每个句子长度,可用于避免在填充标记索引上执行注意力。...lengths(形状(batch_size,)torch.LongTensor,可选)— 每个句子长度,可用于避免在填充标记索引上执行注意力。...lengths(形状(batch_size,)tf.Tensor或Numpy数组,可选)— 每个句子长度,可用于避免在填充标记索引上执行注意力。

11810
您找到你想要的搜索结果了吗?
是的
没有找到

Transformers 4.37 中文文档(二十六)

它还用作使用特殊标记构建序列最后一个标记。 cls_token(str,可选,默认为"")— 在进行序列分类(整个序列进行分类而不是每个标记分类)时使用分类器标记。...单个张量,没有其他内容:model(input_ids) 一个长度不同列表,其中包含一个或多个按照文档字符串中给定顺序输入张量:model([input_ids, attention_mask...tf.Tensor列表,每个张量形状(2, batch_size, num_heads, sequence_length, embed_size_per_head)。...tf.Tensor列表,每个张量形状(2, batch_size, num_heads, sequence_length, embed_size_per_head)。...start_positions(形状(batch_size,)tf.Tensor,可选)— 用于计算标记跨度起始位置标签(索引)。位置被夹紧到序列长度(sequence_length)。

9510

Transformers 4.37 中文文档(五十四)

cls_token (str, 可选, 默认为 "[CLS]") — 分类器标记,用于进行序列分类(整个序列进行分类,而不是每个标记进行分类)。它是使用特殊标记构建时序列第一个标记。...encoder_attention_mask(形状(batch_size, sequence_length)torch.FloatTensor,可选)— 用于避免编码器输入填充标记索引执行注意力掩码...tf.Tensor列表,每个张量形状(2, batch_size, num_heads, sequence_length, embed_size_per_head)。...列表,每个张量形状(2, batch_size, num_heads, sequence_length, embed_size_per_head)。...end_positions(tf.Tensor或形状(batch_size,)np.ndarray,可选)— 用于计算标记范围结束位置位置(索引)标签,计算标记分类损失。

13810

Pytorch中张量高级选择操作

最后表格形式总结了这些函数及其区别。 torch.index_select torch.index_select 是 PyTorch 中用于按索引选择张量元素函数。...现在我们使用3D张量,一个形状[batch_size, num_elements, num_features]张量:这样我们就有了num_elements元素和num_feature特征,并且是一个批次进行处理...它类似于 torch.index_select 和 torch.gather,但是更简单,只需要一个索引张量即可。它本质上是将输入张量视为扁平,然后从这个列表中选择元素。...例如:当形状[4,5]输入张量应用take,并选择指标6和19时,我们将获得扁平张量第6和第19个元素——即来自第2行第2个元素,以及最后一个元素。...适用于较为简单索引选取操作。 torch.gather适用于根据索引从输入张量中收集元素并形成新张量情况。可以根据需要在不同维度上进行收集操作。

11410

Transformers 4.37 中文文档(三十四)

该模型在最大序列长度 512 情况下进行训练,其中包括填充标记。因此,强烈建议在微调和推理时使用相同最大序列长度。...cls_token (str, optional, defaults to "[CLS]") — 用于序列分类时使用分类器标记(整个序列进行分类,而不是每个标记进行分类)。...cls_token(str,可选,默认为"[CLS]")— 分类器标记,用于进行序列分类(整个序列进行分类,而不是每个标记进行分类)。在使用特殊标记构建时,它是序列第一个标记。...end_positions(形状(batch_size,)torch.LongTensor,可选)— 用于计算标记范围结束位置位置(索引标签,计算标记分类损失。...start_positions (tf.Tensor,形状 (batch_size,),可选) — 用于计算标记跨度开始位置(索引标签。位置被夹紧到序列长度(sequence_length)。

10310

Transformers 4.37 中文文档(四十五)

length — 输入长度(当 return_length=True 时) 用于一个或多个序列或一个或多个序列进行标记化和准备模型主要方法,具体取决于您要为其准备任务。...cls_token (str, 可选, 默认为 "[CLS]") — 分类器标记,用于进行序列分类(整个序列进行分类,而不是每个标记进行分类)。...attention_mask(形状(batch_size, sequence_length)torch.FloatTensor,可选)-避免填充令牌索引执行注意力掩码。...start_positions(形状(batch_size,)tf.Tensor,可选)— 用于计算标记跨度开始位置(索引标签,计算标记分类损失。...start_positions(形状(batch_size,)tf.Tensor,可选)— 用于计算标记跨度开始位置(索引标签,计算标记分类损失。

14210

Transformers 4.37 中文文档(五十九)

文本分类 一个关于如何微调 T5 进行分类和多项选择笔记本。 一个关于如何微调 T5 进行情感跨度提取笔记本。 标记分类 一个关于如何微调 T5 进行命名实体识别的笔记本。...翻译任务指南 问答 一个关于如何使用 TensorFlow 2 T5 进行问题回答微调笔记本。 一个关于如何在 TPU 上T5 进行问题回答微调笔记本。...单个张量,没有其他内容:model(input_ids) 一个长度可变列表,其中包含按照文档字符串中给定顺序一个或多个输入张量:model([input_ids, attention_mask...列表,每个张量形状(2, batch_size, num_heads, sequence_length, embed_size_per_head)。...tf.Tensor列表,每个张量形状(2, batch_size, num_heads, sequence_length, embed_size_per_head)。

18410

Transformers 4.37 中文文档(四十一)

这是通过将输入序列分割固定长度k块(默认为k=16)来实现。然后,通过该块中每个标记嵌入进行求和和归一化,获得该块全局标记。...它还用作使用特殊标记构建序列最后一个标记。 cls_token(str,可选,默认为"")— 在进行序列分类(整个序列而不是每个标记进行分类)时使用分类器标记。...如果形状 (batch_size, entity_length),则使用交叉熵损失进行单标签分类。...., config.num_labels - 1] 中索引。如果形状 (batch_size, entity_length, num_labels),则使用二元交叉熵损失进行多标签分类。...start_positions(形状(batch_size,)torch.LongTensor,可选)— 用于计算标记范围开始位置位置(索引标签,计算标记分类损失。

7110

Transformers 4.37 中文文档(二十四)

start_positions(形状(batch_size,)torch.LongTensor,可选)- 用于计算标记跨度开始位置(索引标签,计算标记分类损失。...end_positions(形状(batch_size,)torch.LongTensor,可选)- 用于计算标记跨度结束位置(索引标签,计算标记分类损失。...它还用作使用特殊标记构建序列最后一个标记。 cls_token(str,可选,默认为"")—分类器标记,用于进行序列分类(整个序列进行分类,而不是每个标记进行分类)。...列表,每个张量形状(2, batch_size, num_heads, sequence_length, embed_size_per_head)。... tf.Tensor 列表,每个张量形状 (2, batch_size, num_heads, sequence_length, embed_size_per_head)。

7810
领券