python 全文检索引擎详解

 更新时间:2017年04月25日 11:39:30   投稿:lqh  
这篇文章主要介绍了python 全文检索引擎详解的相关资料,需要的朋友可以参考下

python 全文检索引擎详解

最近一直在探索着如何用Python实现像百度那样的关键词检索功能。说起关键词检索,我们会不由自主地联想到正则表达式。正则表达式是所有检索的基础,python中有个re类,是专门用于正则匹配。然而,光光是正则表达式是不能很好实现检索功能的。

python有一个whoosh包,是专门用于全文搜索引擎。

whoosh在国内使用的比较少,而它的性能还没有sphinx/coreseek成熟,不过不同于前者,这是一个纯python库,对python的爱好者更为方便使用。具体的代码如下

安装

输入命令行 pip install whoosh

需要导入的包有:

fromwhoosh.index import create_in

fromwhoosh.fields import *

fromwhoosh.analysis import RegexAnalyzer

fromwhoosh.analysis import Tokenizer,Token

中文分词解析器

class ChineseTokenizer(Tokenizer):
  """
  中文分词解析器
  """
  def __call__(self, value, positions=False, chars=False,
         keeporiginal=True, removestops=True, start_pos=0, start_char=0,
         mode='', **kwargs):
    assert isinstance(value, text_type), "%r is not unicode "% value
    t = Token(positions, chars, removestops=removestops, mode=mode, **kwargs)
    list_seg = jieba.cut_for_search(value)
    for w in list_seg:
      t.original = t.text = w
      t.boost = 0.5
      if positions:
        t.pos = start_pos + value.find(w)
      if chars:
        t.startchar = start_char + value.find(w)
        t.endchar = start_char + value.find(w) + len(w)
      yield t


def chinese_analyzer():
  return ChineseTokenizer()

构建索引的函数

@staticmethod
  def create_index(document_dir):
    analyzer = chinese_analyzer()
    schema = Schema(titel=TEXT(stored=True, analyzer=analyzer), path=ID(stored=True),
            content=TEXT(stored=True, analyzer=analyzer))
    ix = create_in("./", schema)
    writer = ix.writer()
    for parents, dirnames, filenames in os.walk(document_dir):
      for filename in filenames:
        title = filename.replace(".txt", "").decode('utf8')
        print title
        content = open(document_dir + '/' + filename, 'r').read().decode('utf-8')
        path = u"/b"
        writer.add_document(titel=title, path=path, content=content)
    writer.commit()

检索函数

 @staticmethod
  def search(search_str):
    title_list = []
    print 'here'
    ix = open_dir("./")
    searcher = ix.searcher()
    print search_str,type(search_str)
    results = searcher.find("content", search_str)
    for hit in results:
      print hit['titel']
      print hit.score
      print hit.highlights("content", top=10)
      title_list.append(hit['titel'])
    print 'tt',title_list
    return title_list

感谢阅读,希望能帮助到大家,谢谢大家对本站的支持!

相关文章

  • python装饰器三种装饰模式的简单分析

    python装饰器三种装饰模式的简单分析

    这篇文章主要介绍了python装饰器的三种装饰模式,帮助大家更好的理解和学习python 装饰器,感兴趣的朋友可以了解下
    2020-09-09
  • 解决安装sklearn包失败问题

    解决安装sklearn包失败问题

    这篇文章主要介绍了解决安装sklearn包失败问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教
    2024-10-10
  • 基于Python记录一场2023的烟花

    基于Python记录一场2023的烟花

    弹指间,2023已经到来,新的一年,祝大家新年快乐~~~本文将利用Python为大家绘制一个2023的烟花,感兴趣的小伙伴可以跟随小编一起学习一下
    2023-01-01
  • 在Python程序中进行文件读取和写入操作的教程

    在Python程序中进行文件读取和写入操作的教程

    这篇文章主要介绍了在Python程序中进行文件读取和写入操作的教程,是Python学习当中的基础知识,需要的朋友可以参考下
    2015-04-04
  • 树莓派上利用python+opencv+dlib实现嘴唇检测的实现

    树莓派上利用python+opencv+dlib实现嘴唇检测的实现

    本文主要介绍了树莓派上利用python+opencv+dlib实现嘴唇检测的实现,文中通过示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2021-10-10
  • python3实现微型的web服务器

    python3实现微型的web服务器

    这篇文章主要为大家详细介绍了python3实现一个微型的web服务器,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2019-09-09
  • 使用memory_profiler监测python代码运行时内存消耗方法

    使用memory_profiler监测python代码运行时内存消耗方法

    今天小编就为大家分享一篇使用memory_profiler监测python代码运行时内存消耗方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-12-12
  • python数据分析matplotlib的基础绘图使用

    python数据分析matplotlib的基础绘图使用

    这篇文章主要为大家介绍了python数据分析matplotlib的基础绘图使用,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
    2022-05-05
  • python生成二维矩阵的两种方法小结

    python生成二维矩阵的两种方法小结

    本文主要介绍了python生成二维矩阵,包含列表生成m行n列的矩阵和numpy生成想要维度的矩阵的两种方法,具有一定的参考价值,感兴趣的可以了解一下
    2024-08-08
  • python pandas数据处理教程之合并与拼接

    python pandas数据处理教程之合并与拼接

    在实际处理数据业务需求中,我们经常会遇到这样的需求,将多个表连接起来再进行数据的处理和分析,类似SQL中的连接查询功能,下面这篇文章主要给大家介绍了关于python pandas数据处理教程之合并与拼接的相关资料,需要的朋友可以参考下
    2022-02-02

最新评论