-
POST _analyze
{
? "analyzer": "ik_max_word",
? "text": "我是中國人"
}
查看全部 -
POST _analyze
{
? "analyzer": "ik_smart",
? "text": "我是中國人"
}
查看全部 -
POST _analyze
{
? "analyzer": "standard",
? "text": "hello imooc"
}
POST _analyze
{
? "analyzer": "standard",
? "text": "我是中國人"
}
查看全部 -
ES中文分詞器
standard:ES默認,將詞匯單元轉換為小寫形式,并且去除停用詞、標點符號,支持中文(單字切分)。
simple:通過非字母字符來分割文本信息,然后將詞匯單元統一轉換為小寫形式,會去除掉數字類型的字符。
whitespace:僅僅是去除空格、小寫,不支持中文,對分割的詞匯單元不做標準化的處理。
language:特定語言的分詞器,不支持中文。
查看全部 -
C:\soft\elastic\logstash-6.3.2\bin>logstash -f ../config/mysql.conf
查看全部 -
output
config/mysql.conf
查看全部 -
input
查看全部 -
logstash數據同步
查看全部 -
alibaba/canal
查看全部 -
binlog同步組件
查看全部 -
本課程大綱
查看全部 -
kibana一定要和ES版本保持一致
查看全部 -
should? 相當于 or
must? ? 相當于 and
match? ?相當于 =?
查看全部 -
springboot跨域支持
查看全部 -
es本身對中文分詞支持并不是很友好,但是可以通過插件引入ik分詞器:
https://github.com/medcl/elasticsearch-analysis-ik
查看全部
舉報