手写ElasticSearch分词器

业务要求写一个ElasticSearch的分词插件,使用的是其他的分词框架,但是并没有ES的插件版本,所以需要包装一些。但是搜索了ES的doc,并没有很详细的说明一个插件是如何实现的。
这里以ik插件为例来说明一个分词插件如何按照ES的接口去实现。

概况

一个ES插件需要有如下文件

  • plugin-descriptor.properties 必备。 描述了ES插件的程序入口,版本号,说明,名称,目标ES版本
  • plugin-security.policy 可选。 给jvm使用的Java安全文件,细节可搜索关键词java security
  • 供ES加载的插件jar文件 必备
  • 自定义插件的外部以来jar文件 可选
  • 自定义插件所需要的其他文件可选

plugin-descriptor.properties

下面是ik插件的内容,自己写插件可以按照ik的范例做修改

# Elasticsearch plugin descriptor file
# This file must exist as 'plugin-descriptor.properties' at
# the root directory of all plugins.
#
# A plugin can be 'site', 'jvm', or both.
#
### example site plugin for "foo":
#
# foo.zip <-- zip file for the plugin, with this structure:
#   _site/ <-- the contents that will be served
#   plugin-descriptor.properties <-- example contents below:
#
# site=true
# description=My cool plugin
# version=1.0
#
### example jvm plugin for "foo"
#
# foo.zip <-- zip file for the plugin, with this structure:
#   <arbitrary name1>.jar <-- classes, resources, dependencies
#   <arbitrary nameN>.jar <-- any number of jars
#   plugin-descriptor.properties <-- example contents below:
#
# jvm=true
# classname=foo.bar.BazPlugin
# description=My cool plugin
# version=2.0.0-rc1
# elasticsearch.version=2.0
# java.version=1.7
#
### mandatory elements for all plugins:
#
# 'description': simple summary of the plugin
description=IK Analyzer for Elasticsearch
#
# 'version': plugin's version
version=6.4.0
#
# 'name': the plugin name
name=analysis-ik
#
# 'classname': the name of the class to load, fully-qualified.
classname=org.elasticsearch.plugin.analysis.ik.AnalysisIkPlugin
#
# 'java.version' version of java the code is built against
# use the system property java.specification.version
# version string must be a sequence of nonnegative decimal integers
# separated by "."'s and may have leading zeros
java.version=1.8
#
# 'elasticsearch.version' version of elasticsearch compiled against
# You will have to release a new version of the plugin for each new
# elasticsearch release. This version is checked when the plugin
# is loaded so Elasticsearch will refuse to start in the presence of
# plugins with the incorrect elasticsearch.version.
elasticsearch.version=6.4.0

plugin-security.policy

Java可以对代码做权限管理,这样如果是调用别人的代码,可以防止是恶意的代码,权限比如“网络,IO读写等”,
ik插件的内容

grant {
  // needed because of the hot reload functionality
  permission java.net.SocketPermission "*", "connect,resolve";
};

如果没有添加应有的配置,那么在es启动的时候类加载过程中就会报错,启动失败,可以根据异常原因查找缺失的配置项

自定义插件

public class AnalysisIkPlugin extends Plugin implements AnalysisPlugin

插件的接口,插件必须要继承Plugin,分析器插件必须要实现AnalysisPlugin接口
核心在AnalysisPlugin,这个接口实际是一个Factory,返回分词器,过滤器对象等。

@Override
    public Map<String, AnalysisModule.AnalysisProvider<TokenizerFactory>> getTokenizers() {
        Map<String, AnalysisModule.AnalysisProvider<TokenizerFactory>> extra = new HashMap<>();


        extra.put("ik_smart", IkTokenizerFactory::getIkSmartTokenizerFactory);
        extra.put("ik_max_word", IkTokenizerFactory::getIkTokenizerFactory);

        return extra;
    }

    @Override
    public Map<String, AnalysisModule.AnalysisProvider<AnalyzerProvider<? extends Analyzer>>> getAnalyzers() {
        Map<String, AnalysisModule.AnalysisProvider<AnalyzerProvider<? extends Analyzer>>> extra = new HashMap<>();

        extra.put("ik_smart", IkAnalyzerProvider::getIkSmartAnalyzerProvider);
        extra.put("ik_max_word", IkAnalyzerProvider::getIkAnalyzerProvider);

        return extra;
    }
  • getTokenizers返回一个tokenizer的map(key为tokenizer的名字,value为一个可以创建Tokenizer的工厂对象)
  • getAnalyzers返回一个analyzer的map(key为analyzer的名字,value为一个可以创建Analyzer的工厂对象)
  • tokenizer用在index阶段,analyzer用在search阶段,但是理论上两者行为上是一致的,这样索引的时候分词和搜索时候的分词是一样的。ik的analyzer里面也是同样的tokenizer
  • ik使用了lambda,所以可能比较难懂,但是就是一个工厂类,可以get一个对象。
  • 而且插件实际上是一个返回工厂类的工厂类,套了几层,但实际上没有很多特别的东西,一般人也用不到
    这些工厂方法最终返回的是一个Tokenizer对象,你需要继承这个对象

你需要实现
incrementToken reset end方法
大概的调用逻辑如些

t = new Tokenizer()
t.reset();
while(t.incrementToken()){
    //t.getAttributes()
}
t.end();

Tokenizer有一个Reader属性,待分词的输入就在这里

/** The text source for this Tokenizer. */
  protected Reader input = ILLEGAL_STATE_READER;

获得词元

这个是使用ES的_analyze接口获得的测试结果

{
 "tokens": [
   {
     "token": "测试",
     "start_offset": 0,
     "end_offset": 2,
     "type": "word",
     "position": 0
   },
   {
     "token": "文字",
     "start_offset": 2,
     "end_offset": 4,
     "type": "word",
     "position": 1
   }
 ]
}

可以看到有这么几个属性:token,start_offset,end_offset,type,position
这些都需要我们去指定。但是Tokenizer却没有返回这些属性
ik的构造方法

/**
    * Lucene 4.0 Tokenizer适配器类构造函数
    */
   public IKTokenizer(Configuration configuration){
   super();
   offsetAtt = addAttribute(OffsetAttribute.class);
   termAtt = addAttribute(CharTermAttribute.class);
   typeAtt = addAttribute(TypeAttribute.class);   
   posIncrAtt = addAttribute(PositionIncrementAttribute.class);
   _IKImplement = new IKSegmenter(input,configuration);
   }

上面的分词属性是通过ES和Tokenizer共享对象来实现的,对象就是offsetAtt,termAtt,typeAtt,posIncrAtt,这些对象并不都是必须的,有的属性有自己默认的构造过程,如type,position

@Override
    public boolean incrementToken() throws IOException {
        //清除所有的词元属性
        clearAttributes();
        skippedPositions = 0;

        Lexeme nextLexeme = _IKImplement.next();
        if(nextLexeme != null){
            posIncrAtt.setPositionIncrement(skippedPositions +1 );

            //将Lexeme转成Attributes
            //设置词元文本
            termAtt.append(nextLexeme.getLexemeText());
            //设置词元长度
            termAtt.setLength(nextLexeme.getLength());
            //设置词元位移
            offsetAtt.setOffset(correctOffset(nextLexeme.getBeginPosition()), correctOffset(nextLexeme.getEndPosition()));

            //记录分词的最后位置
            endPosition = nextLexeme.getEndPosition();
            //记录词元分类
            typeAtt.setType(nextLexeme.getLexemeTypeString());          
            //返会true告知还有下个词元
            return true;
        }
        //返会false告知词元输出完毕
        return false;
    }

注意clearAttributes();这个方法不要忘了调用

QA
1.AccessController异常
之前说到Java的plugin-security.policy文件,但是我发现不知为什么ES无法自动加载插件目录下的文件,如果出现这样的情况,可以在config/jvm.options里面添加-Djava.security.policy=/path/to/plugin-security.policy可以使绝对路径,可以是以es根目录的相对路径

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,839评论 6 482
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,543评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 153,116评论 0 344
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,371评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,384评论 5 374
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,111评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,416评论 3 400
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,053评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,558评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,007评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,117评论 1 334
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,756评论 4 324
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,324评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,315评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,539评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,578评论 2 355
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,877评论 2 345

推荐阅读更多精彩内容