热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

Lucene系列四:Lucene提供的分词器、IKAnalyze中文分词器集成、扩展IKAnalyzer的停用词和新词

一、Lucene提供的分词器StandardAnalyzer和SmartChineseAnalyzer1.新建一个测试Lucene提供的分词器的maven项目LuceneAnal

一、Lucene提供的分词器StandardAnalyzer和SmartChineseAnalyzer

1.新建一个测试Lucene提供的分词器的maven项目LuceneAnalyzer

2. 在pom.xml里面引入如下依赖


<dependency><groupId>org.apache.lucenegroupId><artifactId>lucene-coreartifactId><version>7.3.0version>dependency><dependency><groupId>org.apache.lucenegroupId><artifactId>lucene-analyzers-smartcnartifactId><version>7.3.0version>dependency>

 3. 新建一个标准分词器StandardAnalyzer的测试类LuceneStandardAnalyzerTest


package com.luceneanalyzer.use.standardanalyzer;import java.io.IOException;import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.TokenStream;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.analysis.tokenattributes.CharTermAttribute;/*** Lucene core模块中的 StandardAnalyzer英文分词器使用* 英文分词效果好&#xff0c;中文分词效果不好* &#64;author THINKPAD**/
public class LuceneStandardAnalyzerTest {private static void doToken(TokenStream ts) throws IOException {ts.reset();CharTermAttribute cta &#61; ts.getAttribute(CharTermAttribute.class);while (ts.incrementToken()) {System.out.print(cta.toString() &#43; "|");}System.out.println();ts.end();ts.close();}public static void main(String[] args) throws IOException {String etext &#61; "Analysis is one of the main causes of slow indexing. Simply put, the more you analyze the slower analyze the indexing (in most cases).";String chineseText &#61; "张三说的确实在理。";// Lucene core模块中的 StandardAnalyzer 英文分词器try (Analyzer ana &#61; new StandardAnalyzer();) {TokenStream ts &#61; ana.tokenStream("coent", etext);System.out.println("标准分词器&#xff0c;英文分词效果&#xff1a;");doToken(ts);ts &#61; ana.tokenStream("content", chineseText);System.out.println("标准分词器&#xff0c;中文分词效果&#xff1a;");doToken(ts);} catch (IOException e) {}}
}

 运行效果&#xff1a;


标准分词器&#xff0c;英文分词效果&#xff1a;
analysis
|one|main|causes|slow|indexing|simply|put|more|you|analyze|slower|analyze|indexing|most|cases|
标准分词器&#xff0c;中文分词效果&#xff1a;
|三|说|的|确|实|在|理|

 4. 新建一个Lucene提供的中文分词器SmartChineseAnalyzer的测试类


package com.luceneanalyzer.use.smartchineseanalyzer;import java.io.IOException;import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.TokenStream;
import org.apache.lucene.analysis.cn.smart.SmartChineseAnalyzer;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.analysis.tokenattributes.CharTermAttribute;/*** Lucene提供的中文分词器模块&#xff0c;lucene-analyzers-smartcn:Lucene 的中文分词器 SmartChineseAnalyzer* 中英文分词效果都不好* * &#64;author THINKPAD**/
public class LuceneSmartChineseAnalyzerTest {private static void doToken(TokenStream ts) throws IOException {ts.reset();CharTermAttribute cta &#61; ts.getAttribute(CharTermAttribute.class);while (ts.incrementToken()) {System.out.print(cta.toString() &#43; "|");}System.out.println();ts.end();ts.close();}public static void main(String[] args) throws IOException {String etext &#61; "Analysis is one of the main causes of slow indexing. Simply put, the more you analyze the slower analyze the indexing (in most cases).";String chineseText &#61; "张三说的确实在理。";// Lucene 的中文分词器 SmartChineseAnalyzertry (Analyzer smart &#61; new SmartChineseAnalyzer()) {TokenStream ts &#61; smart.tokenStream("content", etext);System.out.println("smart中文分词器&#xff0c;英文分词效果&#xff1a;");doToken(ts);ts &#61; smart.tokenStream("content", chineseText);System.out.println("smart中文分词器&#xff0c;中文分词效果&#xff1a;");doToken(ts);}}
}

 运行效果&#xff1a;


smart中文分词器&#xff0c;英文分词效果&#xff1a;
analysi
|is|on|of|the|main|caus|of|slow|index|simpli|put|the|more|you|analyz|the|slower|analyz|the|index|in|most|case|
smart中文分词器&#xff0c;中文分词效果&#xff1a;
|三|说|的|确实|在|理|


二、IKAnalyze中文分词器集成

IKAnalyzer是开源、轻量级的中文分词器&#xff0c;应用比较多

最先是作为lucene上使用而开发&#xff0c;后来发展为独立的分词组件。只提供到Lucene 4.0版本的支持。我们在4.0以后版本Lucene中使用就需要简单集成一下。

需要做集成&#xff0c;是因为Analyzer的createComponents方法API改变了

IKAnalyzer提供两种分词模式&#xff1a;细粒度分词和智能分词

集成步骤

1、找到 IkAnalyzer包体提供的Lucene支持类&#xff0c;比较IKAnalyzer的createComponets方法。

4.0及之前版本的createComponets方法&#xff1a;


&#64;Overrideprotected TokenStreamComponents createComponents(String fieldName, final Reader in) {Tokenizer _IKTokenizer &#61; new IKTokenizer(in, this.useSmart());return new TokenStreamComponents(_IKTokenizer);}

最新的createComponets方法&#xff1a;


protected abstract TokenStreamComponents createComponents(String fieldName);

2、照这两个类&#xff0c;创建新版本的&#xff0c; 类里面的代码直接复制&#xff0c;修改参数即可。


下面开始集成&#xff1a;

1.新建一个maven项目IkanalyzerIntegrated

 

2. 在pom.xml里面引入如下依赖


<dependency><groupId>org.apache.lucenegroupId><artifactId>lucene-coreartifactId><version>7.3.0version>dependency> <dependency><groupId>com.janeluogroupId><artifactId>ikanalyzerartifactId><version>2012_u6version><exclusions><exclusion><groupId>org.apache.lucenegroupId><artifactId>lucene-coreartifactId>exclusion><exclusion><groupId>org.apache.lucenegroupId><artifactId>lucene-queryparserartifactId>exclusion><exclusion><groupId>org.apache.lucenegroupId><artifactId>lucene-analyzers-commonartifactId>exclusion>exclusions>dependency>

 3. 重写分析器


package com.study.lucene.ikanalyzer.Integrated;import org.apache.lucene.analysis.Analyzer;/*** 因为Analyzer的createComponents方法API改变了需要重新实现分析器* &#64;author THINKPAD**/
public class IKAnalyzer4Lucene7 extends Analyzer {private boolean useSmart &#61; false;public IKAnalyzer4Lucene7() {this(false);}public IKAnalyzer4Lucene7(boolean useSmart) {super();this.useSmart &#61; useSmart;}public boolean isUseSmart() {return useSmart;}public void setUseSmart(boolean useSmart) {this.useSmart &#61; useSmart;}&#64;Overrideprotected TokenStreamComponents createComponents(String fieldName) {IKTokenizer4Lucene7 tk &#61; new IKTokenizer4Lucene7(this.useSmart);return new TokenStreamComponents(tk);}}

 4. 重写分词器


package com.study.lucene.ikanalyzer.Integrated;import java.io.IOException;import org.apache.lucene.analysis.Tokenizer;
import org.apache.lucene.analysis.tokenattributes.CharTermAttribute;
import org.apache.lucene.analysis.tokenattributes.OffsetAttribute;
import org.apache.lucene.analysis.tokenattributes.TypeAttribute;
import org.wltea.analyzer.core.IKSegmenter;
import org.wltea.analyzer.core.Lexeme;/*** 因为Analyzer的createComponents方法API改变了需要重新实现分词器* &#64;author THINKPAD**/
public class IKTokenizer4Lucene7 extends Tokenizer {// IK分词器实现private IKSegmenter _IKImplement;// 词元文本属性private final CharTermAttribute termAtt;// 词元位移属性private final OffsetAttribute offsetAtt;// 词元分类属性&#xff08;该属性分类参考org.wltea.analyzer.core.Lexeme中的分类常量&#xff09;private final TypeAttribute typeAtt;// 记录最后一个词元的结束位置private int endPosition;/*** &#64;param in* &#64;param useSmart*/public IKTokenizer4Lucene7(boolean useSmart) {super();offsetAtt &#61; addAttribute(OffsetAttribute.class);termAtt &#61; addAttribute(CharTermAttribute.class);typeAtt &#61; addAttribute(TypeAttribute.class);_IKImplement &#61; new IKSegmenter(input, useSmart);}/** (non-Javadoc)* * &#64;see org.apache.lucene.analysis.TokenStream#incrementToken()*/&#64;Overridepublic boolean incrementToken() throws IOException {// 清除所有的词元属性
clearAttributes();Lexeme nextLexeme &#61; _IKImplement.next();if (nextLexeme !&#61; null) {// 将Lexeme转成Attributes// 设置词元文本
termAtt.append(nextLexeme.getLexemeText());// 设置词元长度
termAtt.setLength(nextLexeme.getLength());// 设置词元位移
offsetAtt.setOffset(nextLexeme.getBeginPosition(),nextLexeme.getEndPosition());// 记录分词的最后位置endPosition &#61; nextLexeme.getEndPosition();// 记录词元分类
typeAtt.setType(nextLexeme.getLexemeTypeString());// 返会true告知还有下个词元return true;}// 返会false告知词元输出完毕return false;}/** (non-Javadoc)* * &#64;see org.apache.lucene.analysis.Tokenizer#reset(java.io.Reader)*/&#64;Overridepublic void reset() throws IOException {super.reset();_IKImplement.reset(input);}&#64;Overridepublic final void end() {// set final offsetint finalOffset &#61; correctOffset(this.endPosition);offsetAtt.setOffset(finalOffset, finalOffset);}
}

 5. 新建一个IKAnalyzer的测试类IKAnalyzerTest


package com.study.lucene.ikanalyzer.Integrated;import java.io.IOException;import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.TokenStream;
import org.apache.lucene.analysis.tokenattributes.CharTermAttribute;/*** IKAnalyzer分词器集成测试:* 细粒度切分&#xff1a;把词分到最细* 智能切分&#xff1a;根据词库进行拆分符合我们的语言习惯* * &#64;author THINKPAD**/
public class IKAnalyzerTest {private static void doToken(TokenStream ts) throws IOException {ts.reset();CharTermAttribute cta &#61; ts.getAttribute(CharTermAttribute.class);while (ts.incrementToken()) {System.out.print(cta.toString() &#43; "|");}System.out.println();ts.end();ts.close();}public static void main(String[] args) throws IOException {String etext &#61; "Analysis is one of the main causes of slow indexing. Simply put, the more you analyze the slower analyze the indexing (in most cases).";String chineseText &#61; "张三说的确实在理。";/*** ikanalyzer 中文分词器 因为Analyzer的createComponents方法API改变了 需要我们自己实现* 分析器IKAnalyzer4Lucene7和分词器IKTokenizer4Lucene7*/// IKAnalyzer 细粒度切分try (Analyzer ik &#61; new IKAnalyzer4Lucene7();) {TokenStream ts &#61; ik.tokenStream("content", etext);System.out.println("IKAnalyzer中文分词器 细粒度切分&#xff0c;英文分词效果&#xff1a;");doToken(ts);ts &#61; ik.tokenStream("content", chineseText);System.out.println("IKAnalyzer中文分词器 细粒度切分&#xff0c;中文分词效果&#xff1a;");doToken(ts);}// IKAnalyzer 智能切分try (Analyzer ik &#61; new IKAnalyzer4Lucene7(true);) {TokenStream ts &#61; ik.tokenStream("content", etext);System.out.println("IKAnalyzer中文分词器 智能切分&#xff0c;英文分词效果&#xff1a;");doToken(ts);ts &#61; ik.tokenStream("content", chineseText);System.out.println("IKAnalyzer中文分词器 智能切分&#xff0c;中文分词效果&#xff1a;");doToken(ts);}}
}

 运行结果&#xff1a;


IKAnalyzer中文分词器 细粒度切分&#xff0c;英文分词效果&#xff1a;
analysis
|is|one|of|the|main|causes|of|slow|indexing.|indexing|simply|put|the|more|you|analyze|the|slower|analyze|the|indexing|in|most|cases|
IKAnalyzer中文分词器 细粒度切分&#xff0c;中文分词效果&#xff1a;
张三
|三|说的|的确|的|确实|实在|在理|
IKAnalyzer中文分词器 智能切分&#xff0c;英文分词效果&#xff1a;
analysis
|is|one|of|the|main|causes|of|slow|indexing.|simply|put|the|more|you|analyze|the|slower|analyze|the|indexing|in|most|cases|
IKAnalyzer中文分词器 智能切分&#xff0c;中文分词效果&#xff1a;
张三
|说的|确实|在理|


三、扩展 IKAnalyzer的停用词和新词


扩展 IKAnalyzer的停用词

1、在类目录下创建IK的配置文件&#xff1a;IKAnalyzer.cfg.xml

2、在配置文件中增加配置扩展停用词文件的节点&#xff1a; my_ext_stopword.dic 如有多个&#xff0c;以“;”间隔


xml version&#61;"1.0" encoding&#61;"UTF-8"?>
DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties> <comment>IK Analyzer 扩展配置comment><entry key&#61;"ext_stopwords">my_ext_stopword.dicentry>
properties>

 

3、在类目录下创建我们的扩展停用词文件 my_ext_stopword.dic&#xff0c;编辑该文件加入停用词&#xff0c;一行一个

 

4、目录结构如下&#xff1a;

5.新建测试类ExtendedIKAnalyzerDicTest.java


package com.study.lucene.ikanalyzer.Integrated.ext;import java.io.IOException;import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.TokenStream;
import org.apache.lucene.analysis.tokenattributes.CharTermAttribute;import com.study.lucene.ikanalyzer.Integrated.IKAnalyzer4Lucene7;/*** 扩展 IKAnalyzer的词典测试* **/
public class ExtendedIKAnalyzerDicTest {private static void doToken(TokenStream ts) throws IOException {ts.reset();CharTermAttribute cta &#61; ts.getAttribute(CharTermAttribute.class);while (ts.incrementToken()) {System.out.print(cta.toString() &#43; "|");}System.out.println();ts.end();ts.close();}public static void main(String[] args) throws IOException {String chineseText &#61; "厉害了我的国一经播出&#xff0c;受到各方好评&#xff0c;强烈激发了国人的爱国之情、自豪感&#xff01;";// IKAnalyzer 细粒度切分try (Analyzer ik &#61; new IKAnalyzer4Lucene7();) {TokenStream ts &#61; ik.tokenStream("content", chineseText);System.out.println("IKAnalyzer中文分词器 细粒度切分&#xff0c;中文分词效果&#xff1a;");doToken(ts);}// IKAnalyzer 智能切分try (Analyzer ik &#61; new IKAnalyzer4Lucene7(true);) {TokenStream ts &#61; ik.tokenStream("content", chineseText);System.out.println("IKAnalyzer中文分词器 智能切分&#xff0c;中文分词效果&#xff1a;");doToken(ts);}}
}

运行结果&#xff1a;

未加停用词之前&#xff1a;

加停用词之后&#xff1a;


扩展 IKAnalyzer的新词&#xff1a;

1、在类目录下IK的配置文件&#xff1a;IKAnalyzer.cfg.xml 中增加配置扩展词文件的节点&#xff1a; ext.dic 如有多个&#xff0c;以“;”间隔


xml version&#61;"1.0" encoding&#61;"UTF-8"?>
DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties> <comment>IK Analyzer 扩展配置comment><entry key&#61;"ext_dict">ext.dicentry> <entry key&#61;"ext_stopwords">my_ext_stopword.dicentry>
properties>

 

2、在类目录下创建扩展词文件 ext.dic&#xff0c;编辑该文件加入新词&#xff0c;一行一个

3、目录结构如下&#xff1a;

4.运行前面的测试类测试类ExtendedIKAnalyzerDicTest.java查看运行效果

运行结果&#xff1a;

未加新词之前&#xff1a;

加新词之后&#xff1a;

 

源码获取地址&#xff1a;

https://github.com/leeSmall/SearchEngineDemo 

 


推荐阅读
  • Java太阳系小游戏分析和源码详解
    本文介绍了一个基于Java的太阳系小游戏的分析和源码详解。通过对面向对象的知识的学习和实践,作者实现了太阳系各行星绕太阳转的效果。文章详细介绍了游戏的设计思路和源码结构,包括工具类、常量、图片加载、面板等。通过这个小游戏的制作,读者可以巩固和应用所学的知识,如类的继承、方法的重载与重写、多态和封装等。 ... [详细]
  • Iamtryingtomakeaclassthatwillreadatextfileofnamesintoanarray,thenreturnthatarra ... [详细]
  • [大整数乘法] java代码实现
    本文介绍了使用java代码实现大整数乘法的过程,同时也涉及到大整数加法和大整数减法的计算方法。通过分治算法来提高计算效率,并对算法的时间复杂度进行了研究。详细代码实现请参考文章链接。 ... [详细]
  • Java学习笔记之面向对象编程(OOP)
    本文介绍了Java学习笔记中的面向对象编程(OOP)内容,包括OOP的三大特性(封装、继承、多态)和五大原则(单一职责原则、开放封闭原则、里式替换原则、依赖倒置原则)。通过学习OOP,可以提高代码复用性、拓展性和安全性。 ... [详细]
  • 面向对象之3:封装的总结及实现方法
    本文总结了面向对象中封装的概念和好处,以及在Java中如何实现封装。封装是将过程和数据用一个外壳隐藏起来,只能通过提供的接口进行访问。适当的封装可以提高程序的理解性和维护性,增强程序的安全性。在Java中,封装可以通过将属性私有化并使用权限修饰符来实现,同时可以通过方法来访问属性并加入限制条件。 ... [详细]
  • (三)多表代码生成的实现方法
    本文介绍了一种实现多表代码生成的方法,使用了java代码和org.jeecg框架中的相关类和接口。通过设置主表配置,可以生成父子表的数据模型。 ... [详细]
  • 纠正网上的错误:自定义一个类叫java.lang.System/String的方法
    本文纠正了网上关于自定义一个类叫java.lang.System/String的错误答案,并详细解释了为什么这种方法是错误的。作者指出,虽然双亲委托机制确实可以阻止自定义的System类被加载,但通过自定义一个特殊的类加载器,可以绕过双亲委托机制,达到自定义System类的目的。作者呼吁读者对网上的内容持怀疑态度,并带着问题来阅读文章。 ... [详细]
  • 本文介绍了一个Java猜拳小游戏的代码,通过使用Scanner类获取用户输入的拳的数字,并随机生成计算机的拳,然后判断胜负。该游戏可以选择剪刀、石头、布三种拳,通过比较两者的拳来决定胜负。 ... [详细]
  • 本文介绍了如何在给定的有序字符序列中插入新字符,并保持序列的有序性。通过示例代码演示了插入过程,以及插入后的字符序列。 ... [详细]
  • 本文讨论了一个关于cuowu类的问题,作者在使用cuowu类时遇到了错误提示和使用AdjustmentListener的问题。文章提供了16个解决方案,并给出了两个可能导致错误的原因。 ... [详细]
  • 关键词:Golang, Cookie, 跟踪位置, net/http/cookiejar, package main, golang.org/x/net/publicsuffix, io/ioutil, log, net/http, net/http/cookiejar ... [详细]
  • Go Cobra命令行工具入门教程
    本文介绍了Go语言实现的命令行工具Cobra的基本概念、安装方法和入门实践。Cobra被广泛应用于各种项目中,如Kubernetes、Hugo和Github CLI等。通过使用Cobra,我们可以快速创建命令行工具,适用于写测试脚本和各种服务的Admin CLI。文章还通过一个简单的demo演示了Cobra的使用方法。 ... [详细]
  • 本文介绍了Python爬虫技术基础篇面向对象高级编程(中)中的多重继承概念。通过继承,子类可以扩展父类的功能。文章以动物类层次的设计为例,讨论了按照不同分类方式设计类层次的复杂性和多重继承的优势。最后给出了哺乳动物和鸟类的设计示例,以及能跑、能飞、宠物类和非宠物类的增加对类数量的影响。 ... [详细]
  • Java自带的观察者模式及实现方法详解
    本文介绍了Java自带的观察者模式,包括Observer和Observable对象的定义和使用方法。通过添加观察者和设置内部标志位,当被观察者中的事件发生变化时,通知观察者对象并执行相应的操作。实现观察者模式非常简单,只需继承Observable类和实现Observer接口即可。详情请参考Java官方api文档。 ... [详细]
  • Spring学习(4):Spring管理对象之间的关联关系
    本文是关于Spring学习的第四篇文章,讲述了Spring框架中管理对象之间的关联关系。文章介绍了MessageService类和MessagePrinter类的实现,并解释了它们之间的关联关系。通过学习本文,读者可以了解Spring框架中对象之间的关联关系的概念和实现方式。 ... [详细]
author-avatar
朱仔happy
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有