
本文将详细介绍 Elasticsearch 中字母数字混合字符串搜索失效的常见原因以及相应的解决方案。正如摘要所说,问题的根源往往在于索引时使用了会移除数字的分析器。
问题分析
在 Elasticsearch 中,分析器(Analyzer)负责将文本分解成一个个的词元(Token)。不同的分析器采用不同的规则,有些分析器会移除标点符号、停止词,甚至数字。当你在索引时使用了会移除数字的分析器,例如 simple 分析器,那么包含数字的字符串在索引中将不会被正确存储,导致无法通过数字进行搜索。
解决方案
要解决这个问题,你需要选择一个能够保留数字的 Tokenizer。以下是两种常见的解决方案:
-
使用 standard 分析器:
standard 分析器是 Elasticsearch 默认的分析器,它能够处理字母和数字,适用于大多数场景。如果你的 default 字段没有特别的需求,可以直接使用 standard 分析器。
"default" : { "type" : "text", "analyzer" : "standard", "search_analyzer" : "standard" }修改 mapping 之后,需要重新索引数据才能生效。
-
使用 edge-ngram Tokenizer:
edge-ngram Tokenizer 适用于前缀搜索的场景。它会将字符串分解成从开头开始的 N-gram 词元。例如,对于字符串 "AA111",使用 edge-ngram Tokenizer (min_gram=1, max_gram=5) 会生成以下词元: "A", "AA", "AA1", "AA11", "AA111"。
要使用 edge-ngram Tokenizer,你需要首先创建一个自定义分析器:
{ "settings": { "analysis": { "analyzer": { "my_edge_ngram_analyzer": { "type": "custom", "tokenizer": "my_edge_ngram_tokenizer" } }, "tokenizer": { "my_edge_ngram_tokenizer": { "type": "edge_ngram", "min_gram": 1, "max_gram": 10 } } } }, "mappings": { "properties": { "default": { "type": "text", "analyzer": "my_edge_ngram_analyzer", "search_analyzer": "standard" } } } }在这个例子中,我们定义了一个名为 my_edge_ngram_analyzer 的自定义分析器,它使用 my_edge_ngram_tokenizer 作为 Tokenizer。min_gram 和 max_gram 分别指定了 N-gram 的最小和最大长度。search_analyzer 指定了搜索时使用的分析器,通常设置为 standard。
然后,将 default 字段的 analyzer 设置为 my_edge_ngram_analyzer。同样,修改 mapping 之后,需要重新索引数据才能生效。
示例代码
以下是一个完整的示例,展示了如何使用 edge-ngram Tokenizer 创建索引、添加文档并进行搜索:
from elasticsearch import Elasticsearch
# 连接到 Elasticsearch
es = Elasticsearch([{'host': 'localhost', 'port': 9200}])
# 定义索引名称
index_name = 'my_index'
# 定义 mapping
mapping = {
"settings": {
"analysis": {
"analyzer": {
"my_edge_ngram_analyzer": {
"type": "custom",
"tokenizer": "my_edge_ngram_tokenizer"
}
},
"tokenizer": {
"my_edge_ngram_tokenizer": {
"type": "edge_ngram",
"min_gram": 1,
"max_gram": 10
}
}
}
},
"mappings": {
"properties": {
"name": {
"type": "text",
"analyzer": "my_edge_ngram_analyzer",
"search_analyzer": "standard"
}
}
}
}
# 创建索引
if es.indices.exists(index=index_name):
es.indices.delete(index=index_name)
es.indices.create(index=index_name, body=mapping)
# 添加文档
documents = [
{"name": "AA111"},
{"name": "111AA"},
{"name": "AA-111"},
{"name": "AAAA"},
{"name": "1111"}
]
for i, doc in enumerate(documents):
es.index(index=index_name, id=i, body=doc)
# 刷新索引
es.indices.refresh(index=index_name)
# 搜索
query = {
"query": {
"match": {
"name": "111"
}
}
}
result = es.search(index=index_name, body=query)
# 打印结果
print(result)注意事项
- 在修改 mapping 之后,必须重新索引数据。否则,之前的索引仍然使用旧的 mapping,搜索结果可能不正确。
- edge-ngram Tokenizer 会生成大量的词元,可能会影响索引的大小和搜索性能。请根据实际情况选择合适的 min_gram 和 max_gram 值。
- 对于更复杂的字母数字混合字符串搜索需求,可能需要结合使用多个分析器和 Tokenizer,或者使用更高级的搜索技术,例如正则表达式查询。
总结
解决 Elasticsearch 无法使用字母数字混合字符串进行搜索的问题,关键在于选择合适的 Tokenizer。standard 分析器适用于大多数场景,而 edge-ngram Tokenizer 适用于前缀搜索的场景。通过选择合适的 Tokenizer,并重新索引数据,你可以有效地解决这个问题,实现字母数字混合字符串的有效搜索。










