首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >python做全文检索引擎

python做全文检索引擎

作者头像
py3study
发布2020-01-07 11:38:57
1.9K0
发布2020-01-07 11:38:57
举报
文章被收录于专栏:python3python3

python做全文检索引擎

** 最近一直在探索着如何用python实现像百度那样的关键词检索功能。说起关键词检索,我们会不由自主地联想到正则表达式。正则表达式是所有检索的基础,python中有个re类,是专门用于正则匹配。然而,光光是正则表达式是不能很好实现检索功能的。

python有一个whoosh包,是专门用于全文搜索引擎。 whoosh在国内使用的比较少,而它的性能还没有sphinx/coreseek成熟,不过不同于前者,这是一个纯python库,对python的爱好者更为方便使用。具体的代码如下

安装

输入命令行 pip install whoosh

需要导入的包有:

fromwhoosh.index import create_in

fromwhoosh.fields import *

fromwhoosh.analysis import RegexAnalyzer

fromwhoosh.analysis import Tokenizer,Token

中文分词解析器

class ChineseTokenizer(Tokenizer):
    """
    中文分词解析器
    """
    def __call__(self, value, positions=False, chars=False,
                 keeporiginal=True, removestops=True, start_pos=0, start_char=0,
                 mode='', **kwargs):
        assert isinstance(value, text_type), "%r is not unicode "% value
        t = Token(positions, chars, removestops=removestops, mode=mode, **kwargs)
        list_seg = jieba.cut_for_search(value)
        for w in list_seg:
            t.original = t.text = w
            t.boost = 0.5
            if positions:
                t.pos = start_pos + value.find(w)
            if chars:
                t.startchar = start_char + value.find(w)
                t.endchar = start_char + value.find(w) + len(w)
            yield t


def chinese_analyzer():
    return ChineseTokenizer()

构建索引的函数

 @staticmethod
    def create_index(document_dir):
        analyzer = chinese_analyzer()
        schema = Schema(titel=TEXT(stored=True, analyzer=analyzer), path=ID(stored=True),
                        content=TEXT(stored=True, analyzer=analyzer))
        ix = create_in("./", schema)
        writer = ix.writer()
        for parents, dirnames, filenames in os.walk(document_dir):
            for filename in filenames:
                title = filename.replace(".txt", "").decode('utf8')
                print title
                content = open(document_dir + '/' + filename, 'r').read().decode('utf-8')
                path = u"/b"
                writer.add_document(titel=title, path=path, content=content)
        writer.commit()

检索函数

 @staticmethod
    def search(search_str):
        title_list = []
        print 'here'
        ix = open_dir("./")
        searcher = ix.searcher()
        print search_str,type(search_str)
        results = searcher.find("content", search_str)
        for hit in results:
            print hit['titel']
            print hit.score
            print hit.highlights("content", top=10)
            title_list.append(hit['titel'])
        print 'tt',title_list
        return title_list
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2019-09-13 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 安装
  • 需要导入的包有:
  • 中文分词解析器
  • 构建索引的函数
  • 检索函数
相关产品与服务
Elasticsearch Service
腾讯云 Elasticsearch Service(ES)是云端全托管海量数据检索分析服务,拥有高性能自研内核,集成X-Pack。ES 支持通过自治索引、存算分离、集群巡检等特性轻松管理集群,也支持免运维、自动弹性、按需使用的 Serverless 模式。使用 ES 您可以高效构建信息检索、日志分析、运维监控等服务,它独特的向量检索还可助您构建基于语义、图像的AI深度应用。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档