首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

tf.data

注意,如果张量包含一个NumPy数组,并且没有启用立即执行,那么这些值将作为一个或多个tf嵌入到图中。不断的操作。对于大型数据集(> 1 GB),这可能会浪费内存,并且会遇到图形序列化的字节限制。...注意,如果张量包含一个NumPy数组,并且没有启用立即执行,那么这些值将作为一个或多个tf嵌入到图中。不断的操作。对于大型数据集(> 1 GB),这可能会浪费内存,并且会遇到图形序列化的字节限制。...数据跟踪函数并以图形的形式执行它。要在函数内部使用Python代码,有两个选项:1)依靠AutoGraphPython代码转换成等价的图形计算。...例如,当从一组TFRecord文件读取数据时,数据集转换为输入示例之前进行切分。这样可以避免读取每个worker上的每个文件。...图形模式下,通常应该调用此方法一次,并将其结果作为另一个计算的输入。然后,一个典型的循环调用tf.Session.run。

2.7K40
您找到你想要的搜索结果了吗?
是的
没有找到

Transformers 4.37 中文文档(三十三)4-37-中文文档-三十三-

词汇表不存在的标记无法转换为 ID,而是设置为此标记。 bos_token (str, optional, 默认为 "") — 预训练期间使用的序列开始标记。可用作序列分类器标记。...lengths (tf.Tensor或Numpy array,形状为(batch_size,),可选) — 每个句子的长度,可用于避免填充标记索引上执行注意力。...lengths(形状为(batch_size,)的tf.Tensor或Numpy数组,可选)— 每个句子的长度,可用于避免填充标记索引上执行注意力。...lengths(形状为(batch_size,)的tf.Tensor或Numpy array,可选) — 每个句子的长度,可用于避免填充标记索引上执行注意力。...此参数可在急切模式下使用,图模式该值始终设置为 True。

7610

Tensorflow使用TFRecords和tf.Example

当对其进行迭代时,返回这些标量字符串张量。使用.take方法只显示前10条记录。 注意:遍历tf.data.Dataset只启用紧急执行时工作。...注意feature_description在这里是必要的,因为数据集使用图形执行,并且需要这个描述来构建它们的形状和类型签名: # Create a description of the features...示例字段转换为标准张量。 5、TFRecord files in Python tf.io模块还包含用于读取和写入TFRecord文件的纯python函数。...这样做的目的是显示如何端到端输入数据(本例是图像)并将数据写入TFRecord文件,然后读取文件并显示图像。例如,如果希望同一个输入数据集上使用多个模型,这将非常有用。...首先,让我们下载这张猫雪地里的照片和这张正在建设的纽约威廉斯堡大桥的照片。

76710

Transformers 4.37 中文文档(四十六)

attention_mask (Numpy array 或 tf.Tensor,形状为 (batch_size, sequence_length),可选) — 用于避免填充标记索引上执行注意力的掩码。...attention_mask(形状为(batch_size, sequence_length)的Numpy数组或tf.Tensor,可选)— 用于避免填充标记索引上执行注意力的掩码。...attention_mask(形状为(batch_size, sequence_length)的Numpy数组或tf.Tensor,可选)- 避免填充标记索引上执行注意力的掩码。...attention_mask (Numpy array 或 tf.Tensor,形状为 (batch_size, sequence_length),可选) — 遮罩,避免填充标记索引上执行注意力。...由于传递inputs_embeds而不是input_ids时无法猜测填充标记,因此它会执行相同操作(取每批行的最后一个值)。 这个模型继承自 PreTrainedModel。

4710

Sklearn、TensorFlow 与 Keras 机器学习实用指南第三版(九)

特征聚合成有前途的新特征。 执行特征缩放: 标准化或归一化特征。...但也可以不构建图形的情况下运行正向模式自动微分(即数值上,而不是符号上),只需在运行时计算中间结果。...队列 队列是一种数据结构,您可以数据记录推送到其中,然后再将它们取出。TensorFlow tf.queue包实现了几种类型的队列。...附录 D:TensorFlow 图 本附录,我们探索由 TF 函数生成的图形(请参阅第十二章)。 TF 函数和具体函数 TF 函数是多态的,意味着它们支持不同类型(和形状)的输入。...它们代表将在实际值被馈送到占位符x并执行图形后流经图形的未来张量。

5900

Transformers 4.37 中文文档(五十四)

如果您想要更多控制如何input_ids索引转换为相关向量,这将很有用,而不是使用模型的内部嵌入查找矩阵。 num_hashes (int, 可选) — 分桶期间应执行的哈希轮数。...num_hashes (int, optional) — 分桶过程执行的哈希轮数。设置此参数会覆盖config.num_hashes定义的默认值。...如果您希望更多地控制如何input_ids索引转换为相关向量,这将非常有用,而不是使用模型的内部嵌入查找矩阵。 num_hashes(int,可选)— 分桶期间应执行的哈希轮数。...如果您想要更多控制如何input_ids索引转换为相关向量,而不是模型的内部嵌入查找矩阵,则这很有用。 num_hashes (int, optional) — 分桶期间应执行的哈希轮数。...此参数可以急切模式下使用,图模式该值始终设置为 True。

12210

Transformers 4.37 中文文档(八十九)

这是使用掩码语言建模训练此模型时使用的标记。这是模型尝试预测的标记。 add_prefix_space (bool, 可选, 默认为 False) — 是否输入添加初始空格。...attention_mask(形状为(batch_size, sequence_length)的tf.Tensor,可选)- 用于避免填充标记索引上执行注意力的掩码。...attention_mask(形状为(batch_size, sequence_length)的tf.Tensor,可选)— 用于避免填充标记索引上执行注意力的掩码。...attention_mask(形状为(batch_size, sequence_length)的tf.Tensor,可选)— 用于避免填充令牌索引上执行注意力的掩码。...attention_mask(形状为(batch_size, sequence_length)的tf.Tensor,可选)— 用于避免填充标记索引上执行注意力的蒙版。

11210

Transformers 4.37 中文文档(二十七)

词汇表不存在的标记无法转换为 ID,而是设置为此标记。 bos_token(str,可选,默认为"")— 预训练期间使用的序列开始标记。可用作序列分类器标记。...词汇表没有的标记无法转换为 ID,而是设置为此标记。 bos_token(str,可选,默认为"")— 预训练期间使用的序列开始标记。可以用作序列分类器标记。...attention_mask(形状为(batch_size, sequence_length)的Numpy 数组或tf.Tensor,可选)—遮罩,以避免填充标记索引上执行注意力。...attention_mask(形状为(batch_size, sequence_length)的Numpy数组或tf.Tensor,可选)- 避免填充标记索引上执行注意力的掩码。...attention_mask(形状为(batch_size, sequence_length)的Numpy数组或tf.Tensor,可选)- 用于避免填充标记索引上执行注意力的掩码。

15910
领券