图解ElasticSearch 搜索原理
作者 | Richaaaard
摘要
先自上而下,后自底向上的介绍ElasticSearch的底层工作原理,试图回答以下问题:
为什么我的搜索 *foo-bar* 无法匹配 foo-bar ? 为什么增加更多的文件会压缩索引(Index)? 为什么ElasticSearch占用很多内存?
版本
elasticsearch版本: elasticsearch-2.2.0
内容
图解ElasticSearch
云上的集群
![](https://filescdn.proginn.com/e9ac4914fac3ce03b505d6614ac83a75/559a58a30140747aeba6b6f4e5d58563.webp)
集群里的盒子
云里面的每个白色正方形的盒子代表一个节点——Node。
![](https://filescdn.proginn.com/90793f5855241262dc48ebb2c15f424b/0742d9e3cd200bb3cf94a1d376aaed5e.webp)
节点之间
在一个或者多个节点直接,多个绿色小方块组合在一起形成一个ElasticSearch的索引。
![](https://filescdn.proginn.com/ced9dff99d14ef7fe19b67cc04e32ee6/9935826302778ef2e2c440eba8ea4bea.webp)
索引里的小方块
在一个索引下,分布在多个节点里的绿色小方块称为分片——Shard。
![](https://filescdn.proginn.com/a1139e7e5b25bf8c04cbead2340cdd37/7c4747e3a355ba816c9c3c729c7fc19a.webp)
Shard=Lucene Index
一个ElasticSearch的Shard本质上是一个Lucene Index。
![](https://filescdn.proginn.com/098845383fd5004d31fff04fede7ce57/7fe5e6e7298db2ba537ee3625152f980.webp)
Lucene是一个Full Text 搜索库(也有很多其他形式的搜索库),ElasticSearch是建立在Lucene之上的。接下来的故事要说的大部分内容实际上是ElasticSearch如何基于Lucene工作的。
图解Lucene
Mini索引——segment
在Lucene里面有很多小的segment,我们可以把它们看成Lucene内部的mini-index。
![](https://filescdn.proginn.com/67d50632385cf6669fc6f6e5362df590/c874a87ebc31a87fb88029a3c72713b3.webp)
Segment内部
有着许多数据结构
Inverted Index Stored Fields Document Values Cache
![](https://filescdn.proginn.com/7f87da17297cb51b9930ea06c5068c16/6d1ec153af6028903cada7ac82e8a3aa.webp)
最最重要的Inverted Index
![](https://filescdn.proginn.com/38275cd225f150923ba8fbc1932fb2ef/b0edab52da09d1709c4f7537fad7abcc.webp)
Inverted Index主要包括两部分:
一个有序的数据字典Dictionary(包括单词Term和它出现的频率)。 与单词Term对应的Postings(即存在这个单词的文件)。
当我们搜索的时候,首先将搜索的内容分解,然后在字典里找到对应Term,从而查找到与搜索相关的文件内容。
![](https://filescdn.proginn.com/57bce2bb3625d1c7f183e83f3b9a6826/4a5026da389bf52a46a43ba9bdc93e70.webp)
查询“the fury”
![](https://filescdn.proginn.com/ed30f4a0bb2e55da250166e8ec5b28e9/4ef35d83ce6e217225b94cf51177f30e.webp)
自动补全(AutoCompletion-Prefix)
如果想要查找以字母“c”开头的字母,可以简单的通过二分查找(Binary Search)在Inverted Index表中找到例如“choice”、“coming”这样的词(Term)。
![](https://filescdn.proginn.com/9c532f267d53068becba78ddc0ecc70f/26fe6131b9d3c759094a1748c9951a45.webp)
昂贵的查找
如果想要查找所有包含“our”字母的单词,那么系统会扫描整个Inverted Index,这是非常昂贵的。
![](https://filescdn.proginn.com/3a274122f05ed9b075e11ae0bca8a3f9/4a6f867ce7d458e16c8bf8cb8fab84a8.webp)
在此种情况下,如果想要做优化,那么我们面对的问题是如何生成合适的Term。
问题的转化
![](https://filescdn.proginn.com/708731ee8ee05c61e1c498f8202dc552/f4380434af0eb44fd3df9e7998a75660.webp)
对于以上诸如此类的问题,我们可能会有几种可行的解决方案:
* suffix -> xiffus *
如果我们想以后缀作为搜索条件,可以为Term做反向处理。
(60.6384, 6.5017) -> u4u8gyykk
对于GEO位置信息,可以将它转换为GEO Hash。
123 -> {1-hundreds, 12-tens, 123}
对于简单的数字,可以为它生成多重形式的Term。
解决拼写错误
一个Python库 为单词生成了一个包含错误拼写信息的树形状态机,解决拼写错误的问题。
![](https://filescdn.proginn.com/6bd282ea3357298649fd60bfb7493bb1/84b47c06777d9c5ffeb6009e9c55526d.webp)
Stored Field字段查找
当我们想要查找包含某个特定标题内容的文件时,Inverted Index就不能很好的解决这个问题,所以Lucene提供了另外一种数据结构Stored Fields来解决这个问题。本质上,Stored Fields是一个简单的键值对key-value。默认情况下,ElasticSearch会存储整个文件的JSON source。
![](https://filescdn.proginn.com/883859664bbd95db21025f98a9461393/59d0e53964ce7ba7687675998461d8af.webp)
Document Values为了排序,聚合
即使这样,我们发现以上结构仍然无法解决诸如:排序、聚合、facet,因为我们可能会要读取大量不需要的信息。
所以,另一种数据结构解决了此种问题:Document Values。这种结构本质上就是一个列式的存储,它高度优化了具有相同类型的数据的存储结构。
![](https://filescdn.proginn.com/460f7f354428ef8a68d29339b1636002/44befc2049d4159efbebfc63789eafe3.webp)
为了提高效率,ElasticSearch可以将索引下某一个Document Value全部读取到内存中进行操作,这大大提升访问速度,但是也同时会消耗掉大量的内存空间。
总之,这些数据结构Inverted Index、Stored Fields、Document Values及其缓存,都在segment内部。
搜索发生时
搜索时,Lucene会搜索所有的segment然后将每个segment的搜索结果返回,最后合并呈现给客户。
Lucene的一些特性使得这个过程非常重要:
Segments是不可变的(immutable)
Delete? 当删除发生时,Lucene做的只是将其标志位置为删除,但是文件还是会在它原来的地方,不会发生改变 Update? 所以对于更新来说,本质上它做的工作是:先删除,然后重新索引(Re-index) 随处可见的压缩
Lucene非常擅长压缩数据,基本上所有教科书上的压缩方式,都能在Lucene中找到。
缓存所有的所有
Lucene也会将所有的信息做缓存,这大大提高了它的查询效率。
缓存的故事
当ElasticSearch索引一个文件的时候,会为文件建立相应的缓存,并且会定期(每秒)刷新这些数据,然后这些文件就可以被搜索到。
![](https://filescdn.proginn.com/c4ad782b977d2bec4340a4609c6d9e78/09302279b0ba22187486343798198d9d.webp)
随着时间的增加,我们会有很多segments,
![](https://filescdn.proginn.com/e31459b12b28c4ded39b60fbb89dd592/769ad6096eba775786bb6aa70ee579fe.webp)
所以ElasticSearch会将这些segment合并,在这个过程中,segment会最终被删除掉
![](https://filescdn.proginn.com/f09468fb9c9ee135aac69d72ce2654aa/8a147e5ec4e1fe22a45e7e7d0392ea58.webp)
这就是为什么增加文件可能会使索引所占空间变小,它会引起merge,从而可能会有更多的压缩。
举个栗子
有两个segment将会merge
![](https://filescdn.proginn.com/8764fbd441e155bfa0b84af4476a785b/50f47da90eff49a2be98954ac8cc7e17.webp)
这两个segment最终会被删除,然后合并成一个新的segment
![](https://filescdn.proginn.com/933325fad8d86c559fca48e066c040b3/681d3ef6ef32fe35744e1e3ca1f79f23.webp)
这时这个新的segment在缓存中处于cold状态,但是大多数segment仍然保持不变,处于warm状态。
以上场景经常在Lucene Index内部发生的。
![](https://filescdn.proginn.com/5cc9536e9daf6a15dcaf2472e7396b21/ed787d49ba6930e8b7169ca07da2d114.webp)
在Shard中搜索
ElasticSearch从Shard中搜索的过程与Lucene Segment中搜索的过程类似。
![](https://filescdn.proginn.com/f7d3717f4766164965d775daffd2915d/e823a61cc8db569058eb5f293c301a8c.webp)
与在Lucene Segment中搜索不同的是,Shard可能是分布在不同Node上的,所以在搜索与返回结果时,所有的信息都会通过网络传输。
需要注意的是:
1次搜索查找2个shard = 2次分别搜索shard
![](https://filescdn.proginn.com/c597488a14baf415729e46df98c35b26/15c38569ad6cdf5d9ae043758940ceba.webp)
对于日志文件的处理
当我们想搜索特定日期产生的日志时,通过根据时间戳对日志文件进行分块与索引,会极大提高搜索效率。
当我们想要删除旧的数据时也非常方便,只需删除老的索引即可。
![](https://filescdn.proginn.com/4ae610c43ea451cc8950956cfbb5cadd/a8a37d028097ee21de0f5ab1fe2a8b34.webp)
在上种情况下,每个index有两个shards
如何Scale
![](https://filescdn.proginn.com/ce9582371e4dc46162210fa2622b3263/81d5ae05e7fa9750c4a4f63d7b245881.webp)
shard不会进行更进一步的拆分,但是shard可能会被转移到不同节点上
![](https://filescdn.proginn.com/ce9582371e4dc46162210fa2622b3263/81d5ae05e7fa9750c4a4f63d7b245881.webp)
所以,如果当集群节点压力增长到一定的程度,我们可能会考虑增加新的节点,这就会要求我们对所有数据进行重新索引,这是我们不太希望看到的,所以我们需要在规划的时候就考虑清楚,如何去平衡足够多的节点与不足节点之间的关系。
节点分配与Shard优化
为更重要的数据索引节点,分配性能更好的机器 确保每个shard都有副本信息replica
![](https://filescdn.proginn.com/a9db2bd61b1309b777ed7c4047924265/84e7bbd25bbdf04a86264d40d1a6cb26.webp)
路由Routing
每个节点,每个都存留一份路由表,所以当请求到任何一个节点时,ElasticSearch都有能力将请求转发到期望节点的shard进一步处理。
![](https://filescdn.proginn.com/8d08cf3ca44ffd33ba3ea8b9eb438850/aa3c721ae2619b715ae33a51c44b3b9b.webp)
一个真实的请求
![](https://filescdn.proginn.com/b7b3b1f0531dda23aaf72c2d29e00402/949f5a3ab848888ca737a9135c3af110.webp)
Query
![](https://filescdn.proginn.com/b7b3b1f0531dda23aaf72c2d29e00402/949f5a3ab848888ca737a9135c3af110.webp)
Query有一个类型filtered,以及一个multi_match的查询
Aggregation
![](https://filescdn.proginn.com/12183247c2fa97dcbd23599a4ef246af/1d6a81804d3f943f2678d01af0f69a89.webp)
根据作者进行聚合,得到top10的hits的top10作者的信息
请求分发
这个请求可能被分发到集群里的任意一个节点
![](https://filescdn.proginn.com/e2ddc1c8472ac96bd4ee2e8d6993bba3/a4d3de0aca115aae6c84b4454944dab0.webp)
上帝节点
![](https://filescdn.proginn.com/c959fd267310d8cff17a7582ed7c977c/189353e2c75bd829bbc57f5e75c4a787.webp)
这时这个节点就成为当前请求的协调者(Coordinator),它决定:
根据索引信息,判断请求会被路由到哪个核心节点 以及哪个副本是可用的 等等
路由
![](https://filescdn.proginn.com/fe65a7724c8113dd72986f7f0ec758b2/75001fad92980617710226320ecc7612.webp)
在真实搜索之前
ElasticSearch 会将Query转换成Lucene Query
![](https://filescdn.proginn.com/cd85605c445cf62893f830a2c94a9da1/bebc49a3376feac07a50cb2788b4e096.webp)
然后在所有的segment中执行计算
![](https://filescdn.proginn.com/5349581e02ae9bc8d25c4cd413665922/a081d544d307fe63754e3ea3bfbe6691.webp)
对于Filter条件本身也会有缓存
![](https://filescdn.proginn.com/919d00267f80606d18d9528ee7841e0d/1fb0bcc6f708e947875d6ae84d9bffb3.webp)
但queries不会被缓存,所以如果相同的Query重复执行,应用程序自己需要做缓存
![](https://filescdn.proginn.com/ac49cbb63f19c7d2b0dbfce8fe9f456d/c3d834dab8a6b5115b313051298658fe.webp)
所以,
filters可以在任何时候使用 query只有在需要score的时候才使用
返回
搜索结束之后,结果会沿着下行的路径向上逐层返回。
![](https://filescdn.proginn.com/30fdd1803a5c5b6018617568095b003d/748aafefa6f585a308f1f8d6e13ed2ee.webp)
![](https://filescdn.proginn.com/5ce8cd34f37ffedd585c414cc9e20bae/9de4f63650fb04163ae0043e7bea4913.webp)
![](https://filescdn.proginn.com/59cb5c8003a0ef4944b0af6f4cacd909/05299e45c733f8f1024963b4555e740b.webp)
![](https://filescdn.proginn.com/6564a76d42c0a978f61daf2852a59bbb/4f442b0d81d8efc94b6bf0b2227a74ac.webp)
![](https://filescdn.proginn.com/ddd34bb2e2dc1fb1d3dae51480b16fe1/4f3fbc50de5b2b2ad82e4b0737413456.webp)
参考
参考来源:
SlideShare: Elasticsearch From the Bottom Up(http://www.slideshare.net/foundsearch/elasticsearch-from-the-bottom-up?qid=8a5495a0-6902-4af8-99e4-4797f7b3bba8&v=&b=&from_search=1)
Youtube: Elasticsearch from the bottom up(https://www.youtube.com/watch?v=PpX7J-G2PEo)
Wiki: Document-term matrix(https://en.wikipedia.org/wiki/Document-term_matrix)
Wiki: Search engine indexing(https://en.wikipedia.org/wiki/Search_engine_indexing)
Skip list(https://en.wikipedia.org/wiki/Skip_list)
Standford Edu: Faster postings list intersection via skip pointers(http://nlp.stanford.edu/IR-book/html/htmledition/faster-postings-list-intersection-via-skip-pointers-1.html)
StackOverflow: how an search index works when querying many words?(http://stackoverflow.com/questions/9387451/how-an-search-index-works-when-querying-many-words)
StackOverflow: how does lucene calculate intersection of documents so fast?(http://stackoverflow.com/questions/7693897/how-does-lucene-calculate-intersection-of-documents-so-fast)
Lucene and its magical indexes(https://www.linkedin.com/pulse/lucene-its-magical-indexes-sanjay-singh)
misspellings 2.0c: A tool to detect misspellings(https://pypi.python.org/pypi/misspellings)