我已经从REST API中获取了超过8000条记录。现在我需要搜索这个数据集。
我的数据集如下所示:
data = {
key: [
{name:'foo1', 'age':22},
{name:'foo2', 'age':23},
]}
我需要一个新的搜索技术或算法在python上没有O(n)的复杂性,当我使用这段代码;
for data in datas:
if data["name"] == "foo1":
calculate_func(data)
如何优化搜索算法的复杂度?
发布于 2019-03-21 17:37:45
如果您的数据集与您发布的数据集完全相同,那么您可以创建一个{key:value}
字典,其中key
将是名称,value
将是年龄。就像这样-
dict = {
'foo1': 22,
'foo2': 23
}
然后,如果您可以直接使用搜索词来访问与该名称对应的值。就像-
age = dict[searchTermName]
以这种方式,您只需要O(n)时间来准备数据集,但对于每次搜索,您将需要O(1)时间。
现在,如果你的数据集比这更复杂,你可以使用prefix trie。这将是最有效的方法之一。在每次搜索中,最坏情况的时间复杂度将为O(search_term_length)。尽管它也有初始化成本。但这只是一次时间成本(O(n * key_length)
)。
https://stackoverflow.com/questions/55276753
复制相似问题