首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >如何提高pandas.apply()在大型熊猫栏上执行文本清理操作的性能?

如何提高pandas.apply()在大型熊猫栏上执行文本清理操作的性能?
EN

Stack Overflow用户
提问于 2022-07-08 06:53:30
回答 1查看 23关注 0票数 0

我正在处理一个tweet数据集,其中一列是tweet的文本。下面的功能执行tweet的清理,包括删除标点符号、停止词、小写转换、删除表情符号,这些本身都是一个小的实用函数。

代码语言:javascript
运行
复制
def clean_text(text):
    text = text.lower().strip()
    text = remove_punct(text)
    text = remove_emoji(text)
    text = remove_stopwords(text)
    
    return text

我正在为已清除的文本创建一个新列:

代码语言:javascript
运行
复制
df['clean_text'] = df['text'].apply(lambda x: clean_text(x))

随着数据集的大小增加,这变得非常缓慢。Numpy.where()提供了过滤数据的significant performance improvement。我如何使用map()或numpy.where()或其他什么来加快上述应用操作的速度?

EN

回答 1

Stack Overflow用户

发布于 2022-07-08 07:18:31

如果不想调整函数本身,可以使用Pandarella来解析应用https://github.com/nalepae/pandarallel。它甚至给了你一个很好的进度条:)

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/72907702

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档