我试图使用python中的csv模块处理从csv文件中获得的数据。这里大约有50列& 401125行。()for row in csv_file_object:我可以使用len(data)获取这个列表的长度&它返回401125。我甚至可以通过调用列表索引来获取每个单独的记录。但是,当我试图通过调用np.size(dat
我正在尝试用Python读取一个很大的csv文件;它有大约700个属性和101533行。我尝试使用pandas.read_csv命令读取文件,但它出现了内存问题,然后我尝试了这个解决方案with file("data.csv", "rb") as fsplitted by ","
print np.sum(data, axis=0) # sum
如何使用-学习在没有遇到内存问题的情况下训练大型csv数据(~75 on )上的模型?问题:
"MemoryError“发生在使用read_csv函数加载大型数据集时。为了暂时绕过这个问题,我必须重新启动内核,然后read_csv函数成功地加载文件,但是当我再次运行相同的单元时,同样的错误会发生。当read_csv函数成功加载文件时,