腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
码洞
专栏成员
举报
176
文章
190969
阅读量
46
订阅数
订阅专栏
申请加入专栏
全部文章(176)
其他(46)
java(25)
编程算法(25)
云数据库 Redis(20)
go(18)
python(13)
数据库(13)
存储(13)
数据结构(13)
开源(12)
缓存(11)
rpc(10)
linux(9)
github(7)
http(7)
分布式(7)
sql(6)
git(6)
lucene/solr(6)
人工智能(6)
api(5)
shell(4)
node.js(3)
android(3)
云数据库 SQL Server(3)
unix(3)
企业(3)
容器(3)
windows(3)
ios(2)
c 语言(2)
jar(2)
搜索引擎(2)
nginx(2)
容器镜像服务(2)
文件存储(2)
网络安全(2)
spark(2)
ssh(2)
hashmap(2)
tcp/ip(2)
单元测试(2)
大数据(2)
安全(2)
微服务(2)
kafka(2)
Elasticsearch Service(2)
负载均衡(1)
比特币(1)
区块链(1)
NLP 服务(1)
机器学习(1)
mac os(1)
c++(1)
php(1)
perl(1)
ruby(1)
scala(1)
汇编语言(1)
mvc(1)
打包(1)
tomcat(1)
maven(1)
中文分词(1)
analyzer(1)
负载均衡缓存(1)
apache(1)
spring(1)
tornado(1)
消息队列 CMQ 版(1)
网站(1)
express(1)
运维(1)
黑客(1)
爬虫(1)
jvm(1)
mybatis(1)
dns(1)
zookeeper(1)
grep(1)
二叉树(1)
udp(1)
rabbitmq(1)
socket编程(1)
https(1)
系统架构(1)
hbase(1)
任务调度(1)
小程序·云开发(1)
arabic(1)
interface(1)
numbers(1)
png(1)
ps(1)
操作系统(1)
内存(1)
搜索文章
搜索
搜索
关闭
同义词搜索是如何做到的?
lucene/solr
中文分词
analyzer
前面几个章节我们使用到了 Lucene 的中文分词器 HanLPAnalyzer,它并不是 Lucene 自带的中文分词器。Lucene 确实自带了一些中文分词器,但是效果比较弱,在生产实践中多用第三方中文分词器。分词的效果直接影响到搜索的效果,比如默认的 HanLPAnalyser 对「北京大学」这个短语的处理是当成完整的一个词,搜索「北京」这个词汇就不一定能匹配到包含「北京大学」的文章。对语句的处理还需要过滤掉停用词,除掉诸于「的」、「他」、「是」等这样的辅助型词汇。如果是英文还需要注意消除时态对单词形式的影响,比如「drive」和「driven」、「take」和「taked」等。还有更加高级的领域例如同义词、近音词等处理同样也是分词器需要考虑的范畴。
老钱
2019-09-17
1.3K
0
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
立即查看
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档