首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Pandas字符串操作的各种方法速度测试

由于LLM的发展, 很多的数据集都是以DF的形式发布的,所以通过Pandas操作字符串的要求变得越来越高了,所以本文将对字符串操作方法进行基准测试,看看它们是如何影响pandas的性能的。因为一旦Pandas在处理数据时超过一定限制,它们的行为就会很奇怪。

我们用Faker创建了一个100,000行的测试数据。

测试方法

安装:

!pip install faker

生成测试数据的方法很简答:

import pandas as pd

import numpy as np

def gen_data(x):

from faker import Faker

fake = Faker()

outdata = {}

for i in range(0,x):

  outdata[i] = fake.profile()

return pd.DataFrame(outdata).T

n= 100000

basedata = gen_data(n)

然后把Google Colab将输出存储在Google drive中

from google.colab import drive

drive.mount('/content/drive')

创建了非常简单的函数来测试连接两个字符串的各种方法。

def process(a,b):

return ''.join([a,b])

def process(a,b):

return a+b

def process(a,b):

return f""

def process(a,b):

return f""*100

创建一个空DF,编写一个函数将输出%%timeit作为一行添加到数据框中

# add a row to the dataframe using %%timeit output

def add_to_df(n, m, x, outputdf):

outputdf.loc[len(outputdf.index)] = [m, n, x]

# output frame

outputdf = pd.DataFrame(columns=['method', 'n', 'timing'])

outputdf

然后就是运行上面的每个函数并将数据导出到pandas的代码。

# get a sample of data

n = 10000

suffix = 'fstring_100x'

data = basedata.copy().sample(n).reset_index()

记录运行时间

%%timeit -r 7 -n 1 -o

data['newcol'] = ''

for row in range(len(data)):

data.at[row ,'newcol'] = process(data.at[row, 'job'], data.at[row, 'company'])

# 451 ms ± 34 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)

#

完整的函数调用

m = "Iterating over the rows"

add_to_df(n = n, m = m, x = vars(_), outputdf = outputdf)试验

上面是代码,下面开始用上面的代码进行试验:

Iterrows (pandas原生函数)每行相加

%%timeit -r 7 -n 1 -o

data['newcol'] = ''

for row, item in data.iterrows():

data.at[row ,'newcol'] = process(item['job'], item['company'])

Itertuples(由于不可变而更安全)每行相加

%%timeit -r 7 -n 1 -o

data['newcol'] = ''

for row, job, company in data[['job','company']].itertuples():

data.at[row ,'newcol'] = process(job, company)

使用pandas原生函数作为字符串相加

%%timeit -r 7 -n 1 -o

data['newcol'] = data.job + data.company

使用原生函数pandas. series .add

使用dataframe.apply

%%timeit -r 7 -n 1 -o

data['newcol'] = data.apply(lambda row: process(row['job'],row['company']), axis=1)

使用List Map

%%timeit -r 7 -n 1 -o

data['newcol'] = list(map(process, data.job, data.company))

Pandas矢量化

%%timeit -r 7 -n 1 -o

data['newcol'] = process(data.job, data.company)

numpy数组矢量化

显式在numpy数组上使用numpy向量化

优化后的列表推导式

%%timeit -r 7 -n 1 -o

data['newcol'] = ''

data['newcol'] =[process(i,j) for i,j in list(zip(data.job, data.company)) ]

最后是结果的输出:

outputdf.to_csv(f"./drive/MyDrive/_.csv")结果

结果如下所示。我用了上面3种不同函数测试了结果。

原生的字符串加法C = a+b

从1000行扩展到100,000行所需的时间;

可视化对比:

所有矢量化方法都非常快,而且pandas标准的str.add对numpy数组也进行了矢量化。能够看到Pandas的原生方法一般都是线性的。List-map似乎以N的平方根的速度增长

使用fstring: c = f " "

使用fstring,结果很有趣,有的结果无法解释。

时间

可视化

从时间上看,长度超过10,000的DF时,向量化是正确执行的

下图是第三个函数,就是*100,这更能说明问题,向量化操作的基本上时间没有变化

总结

通过上面的测试,我们可以总结一下结果:

1、还是老生常谈的问题,不要使用iterrows(), itertuples(),尽量不要使用DataFrame.apply(),因为几个函数还是循环遍历的。

2、矢量化操作在字符串操作中也是可以使用的,但是为了安全起见,使用Numpy数组。

3、列表推导式就像它的名字一样,它还是一个list

4、还有一些奇怪的无法解释的问题,但是大部分的情况都是可以解释的

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OymwU_0RekieN4vMirX3AmiA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券