首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >Tensorflow: ValueError:无法创建内容大于2 2GB的张量原型

Tensorflow: ValueError:无法创建内容大于2 2GB的张量原型
EN

Stack Overflow用户
提问于 2018-11-02 02:53:52
回答 1查看 969关注 0票数 0

我使用的是tf.data.Dataset应用编程接口,它有一个大约500K行、大约1,800列的数据集。当我尝试的时候:

代码语言:javascript
运行
复制
dataset = tf.data.Dataset.from_tensor_slices(({"reviews": data}, labels))

我回来了:

代码语言:javascript
运行
复制
ValueError: Cannot create a tensor proto whose content is larger than 2GB.

我在谷歌上到处搜索,看到很多人遇到这个问题,但没有令人满意的答案。有没有办法绕过这个限制,或者使用tensorflow方法来分解我的dataset?我已经对它进行了批处理,但这是在调用之后发生的:

代码语言:javascript
运行
复制
dataset = tf.data.Dataset.from_tensor_slices(({"reviews": data}, labels))

无论如何,当我使用10%的数据时,我将数据从CSV读取到tf.data.Dataset中的代码可以正常工作。

任何建议都会很棒!

EN

回答 1

Stack Overflow用户

发布于 2018-11-04 00:35:34

根据您的数据集,您可以尝试使用tf dataset api,这意味着您可以尝试将数据集转换为tf记录,也可以尝试使用csv文件。当你训练其他数据时,datasetapi负责在后台加载数据。这也大大加快了训练过程。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/53107605

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档