通过构造类变量的实例,可以向图中添加一个变量。Variable()构造函数需要变量的初值,它可以是任何类型和形状的张量。初值定义变量的类型和形状。构造完成后,变量的类型和形状是固定的。...当将这个参数设置为tf.TensorShape(None)(表示一个未指定的形状)时,可以用不同形状的值为变量赋值。...当x < 0 xor y < 0为真时,这符合Python语义,因为这里的结果与地板划分一致。例如,floor(x / y) * y + mod(x, y) = x。...参数:x: bool型张量。y: bool型张量。name:操作的名称(可选)。返回:bool类型的张量。...y: bool型张量。返回值:一个bool类型的张量,与x或y的张量大小相同。
输入值量子化为量子化范围([0;2^num_bits - 1]当narrow_range为false且[1;2^num_bits - 1]当为真时),然后反量化,输出为浮点数[min;max)间隔。...narrow_range:一个可选的bool。默认值为False。name:操作的名称(可选)。返回值:类型为浮点32的张量。...输入值量子化为量子化范围([0;2^num_bits - 1]当narrow_range为false且[1;2^num_bits - 1]当为真时),然后反量化,输出为浮点数[min;max)间隔。...参数:inputs:类型为float32的张量。min:一个浮点32的张量。max:一个浮点32的张量。num_bits:一个可选的int.缺省值为8。narrow_range:一个可选的bool。...输入值量子化为量子化范围([0;2^num_bits - 1]当narrow_range为false且[1;2^num_bits - 1]当为真时),然后反量化,输出为浮点数[min;max)间隔。
pooler_output(形状为(batch_size, hidden_size)的torch.FloatTensor,可选,当传递add_pooling_layer=True时返回)— 最后一层隐藏状态的平均池化..., image_vocab_size),可选,当pixel_values存在且input_ids_masked不存在时返回)- MIM 单模态损失的 logits。..., text_vocab_size),可选,当input_ids_masked存在且pixel_values不存在时返回)- MLM 单模态损失的 logits。...multimodal_embeddings (torch.FloatTensor,形状为 (batch_size, output_dim),可选,当 input_ids 和 pixel_values 存在且...中,且text不为None时)。
loss (torch.FloatTensor,形状为 (1,),可选,当提供 labels 时返回) — 遮蔽语言建模(MLM)损失。...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回) — 分类(如果 config.num_labels==1 则为回归)损失。...loss(形状为*(1,)*的torch.FloatTensor,可选,当提供labels时返回)— 分类损失。...loss (torch.FloatTensor,形状为(1,),可选,当提供labels时返回) — 总跨度抽取损失是起始和结束位置的交叉熵之和。...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)- 分类(或回归,如果config.num_labels==1)损失。
loss(形状为(batch_size, )的tf.Tensor,可选,当提供labels时返回)— 分类(如果config.num_labels==1则为回归)损失。...loss (torch.FloatTensor,形状为(1,),可选,当提供bool_masked_pos时返回) — 掩码图像建模(MLM)损失。...loss (torch.FloatTensor,形状为 (1,),可选,当提供 bool_masked_pos 时返回) — 掩码图像建模(MLM)损失。...loss (torch.FloatTensor,形状为(1,), 可选的, 当提供labels时返回) — 分类(如果config.num_labels==1则为回归)损失。...loss (torch.FloatTensor,形状为(1,), 可选的, 当提供labels时返回) — 分类(如果config.num_labels==1则为回归)损失。
loss (tf.Tensor,形状为(n,),optional,其中 n 是未屏蔽标签的数量,当提供labels时返回) — 语言建模损失。...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回) — 掩码语言建模(MLM)损失。...loss(形状为*(1,)*的torch.FloatTensor,可选,当提供labels时返回)- 分类损失。...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)— 分类损失。...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)- 总跨度提取损失是开始和结束位置的交叉熵之和。
loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)- 掩码语言建模(MLM)损失。...loss(形状为*(1,)*的torch.FloatTensor,可选,当提供labels时返回)— 分类损失。...loss(形状为(n,)的tf.Tensor,可选,当提供labels时返回,其中 n 是非掩码标签的数量)- 语言建模损失(用于下一个标记预测)。...loss (tf.Tensor,形状为 (batch_size, ),可选,当提供 labels 时返回) — 分类损失。...loss(形状为(n,)的tf.Tensor,可选,当提供labels时返回,其中 n 是未被掩盖标签的数量)— 分类损失。
loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)- 总跨度提取损失是起始位置和结束位置的交叉熵之和。...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)— 语言建模损失(用于下一个标记预测)。...loss (torch.FloatTensor,形状为(1,),optional,当提供labels时返回) — 总跨度提取损失是起始和结束位置的交叉熵之和。...attentions (tuple(tf.Tensor), 可选的, 当传递output_attentions=True或者当config.output_attentions=True时返回) — 形状为...预先计算的键和值隐藏状态的形状为*[batch_size, max_length]*。 output_attentions(bool,可选)— 是否返回所有注意力层的注意力张量。
loss (torch.FloatTensor,形状为(1,),可选,当提供labels时返回) — 总损失,作为类别预测的负对数似然(交叉熵)和边界框损失的线性组合。...loss (torch.FloatTensor,形状为(1,),optional,当提供labels时返回) — 总损失,作为类别预测的负对数似然(交叉熵)和边界框损失的线性组合。...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)— 分类(或如果config.num_labels==1则为回归)损失。...loss (tf.Tensor,形状为(1,),可选,当提供labels时返回) — 分类(如果config.num_labels==1则为回归)损失。...loss(形状为 (1,) 的 tf.Tensor,可选,当提供了 labels 时返回)— 分类(如果 config.num_labels==1 则为回归)损失。
张量或 TensorFlow 张量的字典,则结果将使用相同类型,除非您使用return_tensors提供不同的张量类型。...如果size是一个整数且default_to_square为False,则图像的较小边将与此数字匹配。...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)- 总跨度提取损失是起始和结束位置的交叉熵之和。...loss(形状为*(batch_size, )*的tf.Tensor,可选,当提供labels时返回)— 分类损失。...loss (tf.Tensor,形状为(n,),可选,当提供labels时返回,其中 n 是未屏蔽标签的数量) — 分类损失。
normalize (bool, optional, 默认为 False) — 是否对解码后的文本应用英文文本规范化。仅当目标文本为英文时适用。否则,应应用基本文本规范化。...当模型用作序列到序列模型中的解码器时,只有这两个额外的张量是必需的。包含预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于加速顺序解码(参见 past_key_values 输入)。...损失 (torch.FloatTensor,形状为(1,),可选,当提供labels时返回) — 语言建模损失(用于下一个标记预测)。...如果使用past_key_values,用户可以选择仅输入最后的decoder_input_ids(那些没有将其过去的键值状态提供给此模型的)的形状为(batch_size, 1)的张量,而不是形状为(...loss(形状为(n,)的tf.Tensor,可选,当提供labels时返回,其中 n 是未屏蔽标签的数量)- 语言建模损失。
loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)- 分类(如果 config.num_labels==1 则为回归)损失。...hidden_states(可选,当传递output_hidden_states=True或当config.output_hidden_states=True时返回)- 形状为(batch_size,...attentions(可选,当传递output_attentions=True或当config.output_attentions=True时返回)- 形状为(batch_size, num_heads...mask_labels — 形状为(labels, height, width)的可选掩码标签列表,用于馈送给模型(当提供annotations时)。...class_labels — 形状为(labels)的可选类别标签列表,用于馈送给模型(当提供annotations时)。
attentions(tuple(torch.FloatTensor),可选,当传递output_attentions=True或config.output_attentions=True时返回)— 形状为...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)— 分类(或如果config.num_labels==1则为回归)损失。...loss (torch.FloatTensor,形状为(1,),可选,当提供labels时返回) — 分类(或回归,如果config.num_labels==1)损失。...loss (torch.FloatTensor,形状为(1,),可选,当提供labels时返回) — 分类(如果 config.num_labels==1 则为回归)损失。...loss (tf.Tensor,形状为(1,),可选,当提供labels时返回) — 分类(或回归,如果config.num_labels==1)损失。
loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)- 分类(或如果config.num_labels==1则为回归)损失。...loss(形状为*(1,)*的torch.FloatTensor,可选,当提供labels时返回)— 分类损失。...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)— 分类损失。...loss(形状为*(batch_size, )*的tf.Tensor,可选,当提供labels时返回) — 分类损失。...且没有其他内容的单个张量:model(input_ids) 一个长度不定的列表,其中包含一个或多个按照文档字符串中给定顺序的输入张量:model([input_ids, attention_mask
loss (torch.FloatTensor,形状为 (1,),可选,当提供 bool_masked_pos 时返回) — 重构损失。...loss(形状为 (1,) 的 torch.FloatTensor,可选,当提供 labels 时返回)— 分类(如果 config.num_labels==1 则为回归)损失。...loss (torch.FloatTensor,形状为(1,), optional, 当提供labels时返回) — 分类(如果config.num_labels==1则为回归)损失。...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回) — 损失。...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回) — 损失。
loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)- 语言建模损失。...loss (torch.FloatTensor,形状为(1,),可选,当提供labels时返回) — 总跨度提取损失是起始位置和结束位置的交叉熵之和。...当模型用作序列到序列模型中的解码器时,只有在需要时才需要这两个额外的张量。...loss(形状为(n,)的tf.Tensor,可选,当提供labels时返回,其中 n 是未屏蔽标签的数量)— 语言建模损失。...预先计算的键和值隐藏状态的形状为*[batch_size, max_length]*。 output_attentions(bool,可选)— 是否返回所有注意力层的注意力张量。
loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)— 总跨度提取损失是开始和结束位置的交叉熵之和。...损失 (tf.Tensor 的形状为 (n,),可选,当提供 labels 时返回,其中 n 是非掩码标签的数量) — 语言建模损失(用于下一个标记预测)。...loss(形状为(n,)的tf.Tensor,可选,当提供labels时返回,其中 n 是非屏蔽标签的数量)— 掩码语言建模(MLM)损失。...loss(形状为*(batch_size, )*的tf.Tensor,可选,当提供labels时返回) — 分类损失。...attentions (tuple(tf.Tensor), 可选的, 当传递output_attentions=True或当config.output_attentions=True时返回) — 形状为
loss(形状为(1,)的torch.FloatTensor,可选,当提供label时返回)- 分类(如果config.num_labels==1则为回归)损失。...loss (torch.FloatTensor,形状为(1,),可选,当提供labels时返回) — 总跨度提取损失是起始和结束位置的交叉熵之和。...当模型用作序列到序列模型中的解码器时,只有在需要时才需要这两个额外的张量。 包含预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于加速顺序解码。...loss(形状为(1,)的tf.Tensor,可选,当提供label时返回)— 分类(如果config.num_labels==1则为回归)损失。...预先计算的键和值隐藏状态的形状为*[batch_size, max_length]*。 output_attentions(bool,可选)- 是否返回所有注意力层的注意力张量。
当 use_tpu_fourier_optimizations 设置为 True 且输入序列长度短于或等于 4096 个标记时,将用于初始化 DFT 矩阵。...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)- 分类损失。...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)- 语言建模损失。...loss(形状为*(1,)*的torch.FloatTensor,可选,当提供labels时返回)- 分类损失。...损失 (tf.Tensor 的形状为 (batch_size, ), 可选, 当提供 labels 时返回) — 分类损失。
loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回) — 总跨度提取损失是起始位置和结束位置的交叉熵之和。...loss (形状为(n,)的tf.Tensor, *可选*, 当提供labels`时返回) — 语言建模损失(用于下一个标记预测)。...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)— 语言建模损失。...loss(形状为(1,)的torch.FloatTensor,可选,当提供labels时返回)— 语言建模损失(用于下一个标记预测)。...损失(形状为(n,)的tf.Tensor,可选,当提供标签时返回,其中 n 是非掩码标签的数量)— 语言建模损失。
领取专属 10元无门槛券
手把手带您无忧上云