首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

tf.quantization

输入值量子化为量子化范围([0;2^num_bits - 1]narrow_rangefalse[1;2^num_bits - 1]),然后反量化,输出浮点数[min;max)间隔。...narrow_range:一个可选bool。默认值False。name:操作名称(可选)。返回值:类型浮点32张量。...输入值量子化为量子化范围([0;2^num_bits - 1]narrow_rangefalse[1;2^num_bits - 1]),然后反量化,输出浮点数[min;max)间隔。...参数:inputs:类型float32张量。min:一个浮点32张量。max:一个浮点32张量。num_bits:一个可选int.缺省值8。narrow_range:一个可选bool。...输入值量子化为量子化范围([0;2^num_bits - 1]narrow_rangefalse[1;2^num_bits - 1]),然后反量化,输出浮点数[min;max)间隔。

1.7K20
您找到你想要的搜索结果了吗?
是的
没有找到

Transformers 4.37 中文文档(三十六)

loss(形状(1,)torch.FloatTensor,可选,提供labels返回)- 总跨度提取损失是起始位置和结束位置交叉熵之和。...loss(形状(1,)torch.FloatTensor,可选,提供labels返回)— 语言建模损失(用于下一个标记预测)。...loss (torch.FloatTensor,形状(1,),optional,提供labels返回) — 总跨度提取损失是起始和结束位置交叉熵之和。...attentions (tuple(tf.Tensor), 可选, 传递output_attentions=True或者config.output_attentions=True返回) — 形状...预先计算键和值隐藏状态形状*[batch_size, max_length]*。 output_attentions(bool,可选)— 是否返回所有注意力层注意力张量

10610

Transformers 4.37 中文文档(六十五)

loss (torch.FloatTensor,形状(1,),可选,提供labels返回) — 总损失,作为类别预测负对数似然(交叉熵)和边界框损失线性组合。...loss (torch.FloatTensor,形状(1,),optional,提供labels返回) — 总损失,作为类别预测负对数似然(交叉熵)和边界框损失线性组合。...loss(形状(1,)torch.FloatTensor,可选,提供labels返回)— 分类(或如果config.num_labels==1则回归)损失。...loss (tf.Tensor,形状(1,),可选,提供labels返回) — 分类(如果config.num_labels==1则回归)损失。...loss(形状 (1,) tf.Tensor,可选,提供了 labels 返回)— 分类(如果 config.num_labels==1 则为回归)损失。

10510

Transformers 4.37 中文文档(八十一)

normalize (bool, optional, 默认为 False) — 是否对解码后文本应用英文文本规范化。仅目标文本英文适用。否则,应应用基本文本规范化。...模型用作序列到序列模型中解码器,只有这两个额外张量是必需。包含预先计算隐藏状态(自注意力块和交叉注意力块中键和值),可用于加速顺序解码(参见 past_key_values 输入)。...损失 (torch.FloatTensor,形状(1,),可选,提供labels返回) — 语言建模损失(用于下一个标记预测)。...如果使用past_key_values,用户可以选择仅输入最后decoder_input_ids(那些没有将其过去键值状态提供给此模型形状(batch_size, 1)张量,而不是形状(...loss(形状(n,)tf.Tensor,可选,提供labels返回,其中 n 是未屏蔽标签数量)- 语言建模损失。

15610

Transformers 4.37 中文文档(二十一)

loss(形状(1,)torch.FloatTensor,可选,提供label返回)- 分类(如果config.num_labels==1则回归)损失。...loss (torch.FloatTensor,形状(1,),可选,提供labels返回) — 总跨度提取损失是起始和结束位置交叉熵之和。...模型用作序列到序列模型中解码器,只有在需要才需要这两个额外张量。 包含预先计算隐藏状态(自注意力块和交叉注意力块中键和值),可用于加速顺序解码。...loss(形状(1,)tf.Tensor,可选,提供label返回)— 分类(如果config.num_labels==1则回归)损失。...预先计算键和值隐藏状态形状*[batch_size, max_length]*。 output_attentions(bool,可选)- 是否返回所有注意力层注意力张量

9110
领券