我正在尝试使用word2vec和tfidf-score对包含16M条推文的数据集进行一个基本的推文情绪分析,但我的6GB Gforce-Nvidia无法做到这一点。由于这是我第一个与机器学习相关的实践项目,我想知道我做错了什么,因为数据集都是文本,它不应该占用这么多内存,这会使我的笔记本电脑在tweet2vec功能中冻结或在缩放部分给出内存错误。所以我很好奇是什么导致了这个问题 # --------------- calculating word w
我正在构建一个多标签文本分类程序,并试图使用OneVsRestClassifier+XGBClassifier对文本进行分类。最初,我使用Sklearn的Tf-以色列国防军矢量化文本,这没有错误。现在,我使用Gensim的Word2Vec来矢量化文本。然而,当我将矢量化数据输入OneVsRestClassifier+XGBClassifier时,在拆分测试和培训数据的行中会出现以下错误:
Type
我注意到,一个大型复杂数组在GPU上占用的内存是CPU上内存的两倍。600000000 single 在CPU上,这两个数组都是600 On -在GPU上,复杂数组使用我使用Matlab2013a在两个显卡上测试了这一点: GeForce GTX 680和Tesla K20。
我怎么才能避免这种情况?这是Matlab中的一个bug吗?