我正在做临床消息规范化(拼写检查),我根据900,000个单词的医学字典检查每个给定的单词。我更关心的是时间复杂度/性能。
我想做模糊字符串比较,但是我不确定使用哪个库。
选项1:
import Levenshtein
Levenshtein.ratio('hello world', 'hello')
Result: 0.625
选项2:
import difflib
difflib.SequenceMatcher(None, 'hello world', 'hello').ratio()
Result: 0.625
在本例中,两者给出了相同的答案。你认为两者在这种情况下的表现是一样的吗?
发布于 2015-07-06 09:11:07
如果你对Levenshtein和Difflib相似度的快速视觉比较感兴趣,我计算了大约230万个书名:
import codecs, difflib, Levenshtein, distance
with codecs.open("titles.tsv","r","utf-8") as f:
title_list = f.read().split("\n")[:-1]
for row in title_list:
sr = row.lower().split("\t")
diffl = difflib.SequenceMatcher(None, sr[3], sr[4]).ratio()
lev = Levenshtein.ratio(sr[3], sr[4])
sor = 1 - distance.sorensen(sr[3], sr[4])
jac = 1 - distance.jaccard(sr[3], sr[4])
print diffl, lev, sor, jac
然后我用R绘制了结果:
出于好奇,我还比较了Difflib、Levenshtein、Sørensen和Jaccard的相似值:
library(ggplot2)
require(GGally)
difflib <- read.table("similarity_measures.txt", sep = " ")
colnames(difflib) <- c("difflib", "levenshtein", "sorensen", "jaccard")
ggpairs(difflib)
结果:
Difflib和Levenshtein的相似性真的很有趣。
2018编辑:如果你正致力于识别类似的字符串,你也可以查看minhashing-有一个great overview here。Minhashing在线性时间内找到大型文本集合中的相似性方面令人惊叹。我的实验室组装了一个使用minhashing检测和可视化文本重用的应用程序:https://github.com/YaleDHLab/intertext
https://stackoverflow.com/questions/6690739
复制相似问题