我有一个巨大的代码,里面有for loop,它需要几个小时才能运行,最后我的电脑死机了。为了改进我的代码,我使用了foreach和并行处理来减少运行时间。我的代码是这样的: library(doParallel)cl <- makeCluster(cores[1]-1) foreach (i=1:3)%dopar%{
{some R code with i
我有一个巨大的csv文件作为原始数据源(~14 gb)。我想创建一个场景,其中每个请求都包含来自我的csv的N元素,解析为JSON对象并包装为JSON数组。现在,我尝试使用Future对csv文件进行预处理,并将其转储到单列下的新csv文件中,如下所示:
然后,我使用我的输出csv文件(50 as )作为Gatling供给器,并将这一列注入为StringBody然而,我不确定这是否是最有效的方法。早些时候我试过使用readRecords,但用的