The first approximate aggregation provided by Elasticsearch is the cardinality
metric. This provides the cardinality of a field, also called a distinct or unique count. You may be familiar with the SQL version:
Elasticsearch에서 제공되는, 첫 번째 approximate aggregation은 cardinality
metric이다. 이것은 고유한(distinct) 또는 유일한(unique) 값의 수라고 불리기도 하는, filed의 cardinality(기수)를 제공한다. 아래 SQL 버전에 익숙할 것이다.
SELECT COUNT(DISTINCT color) FROM cars
Distinct counts are a common operation, and answer many fundamental business questions:
고유한 수는 일반적인 연산이고, 많은 기본적인 비즈니스 질문에 대한 답변이다.
How many unique visitors have come to my website?
website를 방문한 유일한 방문자는 몇 명인가?
How many unique cars have we sold?
판매한 유일한 자동차의 수는?
How many distinct users purchased a product each month?
각 달에 제품을 구매한 유일한 사용자의 수는?
We can use the cardinality
metric to determine the number of car colors being sold at our dealership:
대리점에서 판매된 자동차 색깔의 수를 결정하기 위해, cardinality
metric을 사용할 수 있다.
GET /cars/transactions/_search { "size" : 0, "aggs" : { "distinct_colors" : { "cardinality" : { "field" : "color" } } } }
This returns a minimal response showing that we have sold three different-colored cars:
이 query는 3 가지 다른 색상의 자동차를 판매했다는 것을 보여주는 response를 반환한다.
... "aggregations": { "distinct_colors": { "value": 3 } } ...
We can make our example more useful: how many colors were sold each month? For that metric, we just nest the cardinality
metric under a date_histogram
:
좀 더 유용한 예제를 만들어 보자. 각 달에 팔린 색상의 수는? 해당 통계를 위하여, date_histogram
아래에 cardinality
metric을 중첩하면 된다.
GET /cars/transactions/_search { "size" : 0, "aggs" : { "months" : { "date_histogram": { "field": "sold", "interval": "month" }, "aggs": { "distinct_colors" : { "cardinality" : { "field" : "color" } } } } } }
Understanding the Trade-offsedit
As mentioned at the top of this chapter, the cardinality
metric is an approximate algorithm. It is based on the HyperLogLog++ (HLL) algorithm. HLL works by hashing your input and using the bits from the hash to make probabilistic estimations on the cardinality.
이 장의 초반에 언급했듯이, cardinality
metric은 approximate 알고리즘이다. HyperLogLog++(HLL) 알고리즘을 기반으로 한다. HLL은 입력을 hashing하고, cardinality에 대한 확률론적 추정을 위해, hash에서 bit를 사용함으로써 동작한다.
You don’t need to understand the technical details (although if you’re interested, the paper is a great read!), but you should be aware of the properties of the algorithm:
기술적인 세부사항(관심이 있다면, 이 논문은 읽을만한 아주 좋은 논문이다)을 이해할 필요는 없다. 하지만 알고리즘의 특성 을 알고 있어야 한다.
Configurable precision, which controls memory usage (more precise == more memory).
메모리 사용량을 제어하는, 정밀도의 설정. (더 정확 == 더 많은 메모리)
Excellent accuracy on low-cardinality sets.
낮은 cardinality 집합에 대한 우수한 정확도
Fixed memory usage. Whether there are thousands or billions of unique values, memory usage depends on only the configured precision.
고정 메모리 사용량. 수천 또는 수십억의 고유한 값이 있어도 관계없다. 메모리 사용량은 설정된 정밀도에 따라 달라진다.
To configure the precision, you must specify the precision_threshold
parameter. This threshold defines the point under which cardinalities are expected to be very close to accurate. Consider this example:
정밀도를 설정하기 위해, precision_threshold
매개변수를 지정해야 한다. 이 임계 값(threshold)은 정확함에 매우 근접할 것으로 기대되는 cardinality, 아래 지점을 정의한다. 아래 예제를 살펴보자.
GET /cars/transactions/_search { "size" : 0, "aggs" : { "distinct_colors" : { "cardinality" : { "field" : "color", "precision_threshold" : 100 } } } }
This example will ensure that fields with 100 or fewer distinct values will be extremely accurate. Although not guaranteed by the algorithm, if a cardinality is under the threshold, it is almost always 100% accurate. Cardinalities above this will begin to trade accuracy for memory savings, and a little error will creep into the metric.
이 예제는 100개 이하의 고유한 값을 가진 field는 매우 정확할 거라고 보장한다. 비록 알고리즘이 보장하지는 않지만, cardinality가 임계 값 아래일 경우, 거의 항상 100% 정확하다. 이 이상의 cardinality는 메모리 절약과 정확성을 거래하기 시작하고, 약간의 오차가 metric에 나타날 것이다.
For a given threshold, the HLL data-structure will use about precision_threshold * 8
bytes of memory. So you must balance how much memory you are willing to sacrifice for additional accuracy.
주어진 임계 값에 대해, HLL 데이터 구조는 precision_threshold * 8
byte의 메모리를 사용할 것이다. 따라서, 추가적인 정확성과 필요한 메모리의 양의 균형을 맞추어야 한다.
Practically speaking, a threshold of 100
maintains an error under 5% even when counting millions of unique values.
실질적으로 말하자면, 임계 값 100
은, 수백만 개의 고유한 값을 계산하는 경우에도, 5% 미만의 오차를 유지한다.
Optimizing for Speededit
If you want a distinct count, you usually want to query your entire dataset (or nearly all of it). Any operation on all your data needs to execute quickly, for obvious reasons. HyperLogLog is very fast already—it simply hashes your data and does some bit-twiddling.
유일한 값의 수를 얻으려면, 일반적으로 전체 데이터 집합(또는 거의 모든 데이터)를 검색할 것이다. 모든 데이터에 대한 어떤 연산은 분명히 신속하게 실행되어야 한다. HyperLolLog는 이미 매우 빠르다. 단순히 데이터를 hash하고, 약간의 bit 변형을 수행한다.
But if speed is important to you, we can optimize it a little bit further. Since HLL simply needs the hash of the field, we can precompute that hash at index time. When the query executes, we can skip the hash computation and load the value directly out of fielddata.
그러나, 속도가 매우 중요하다면, 데이터를 조금 더 최적화할 수 있다. HLL은 단순히 field의 hash가 필요하기 때문에, 색인 시에 hash를 미리 계산할 수 있다. query를 실행할 때, hash 계산을 생략하고, fielddata에서 값을 바로 읽을 수 있다.
Precomputing hashes is useful only on very large and/or high-cardinality fields. Calculating the hash on these fields is non-negligible at query time.
hash를 미리 계산하는 것은 매우 큰 field 그리고/또는 높은 cardinality field일 경우에만 유용하다. 이런 field에서 hash를 계산하는 것은, query시에 무시할 수 없다.
However, numeric fields hash very quickly, and storing the original numeric often requires the same (or less) memory. This is also true on low-cardinality string fields; there are internal optimizations that guarantee that hashes are calculated only once per unique value.
그러나, 숫자 field의 hash는 매우 빠르다. 그리고, 원래의 숫자를 저장하는 것은, 같거나 적은 메모리를 필요로 한다. 이것은 낮은 cardinality를 가지는 문자열 field에서도 마찬가지이다. hash는 고유한 값 별로 한번만 계산된다고 보장하는 내부 최적화가 있다.
Basically, precomputing hashes is not guaranteed to make all fields faster — only those that have high cardinality and/or large strings. And remember, precomputing simply shifts the cost to index time. You still pay the price; you just choose when to pay it.
기본적으로, hash를 미리 계산하는 것이 모든 field를 더 빠르게 한다고 보장할 수 없다. 높은 cardinality 그리고/또는 매우 큰 문자열을 가진 field에서만 더 빠르다. 그리고, 미리 계산하는 것은, 단순히 비용을 색인 시로 옮긴 것뿐이라는 것을 기억하자. 여전히 비용을 지불해야 한다. 단지 언제 지불할지를 선택할 뿐이다.
To do this, we need to add a new multifield to our data. We’ll delete our index, add a new mapping that includes the hashed field, and then reindex:
이를 위해, 데이터에 새로운 다중 field를 추가해야 한다. index를 지우고, hashed field를 포함하는 새로운 mapping을 추가하자. 그리고, 다시 색인하자.
DELETE /cars/ PUT /cars/ { "mappings": { "transactions": { "properties": { "color": { "type": "string", "fields": { "hash": { "type": "murmur3" } } } } } } } POST /cars/transactions/_bulk { "index": {}} { "price" : 10000, "color" : "red", "make" : "honda", "sold" : "2014-10-28" } { "index": {}} { "price" : 20000, "color" : "red", "make" : "honda", "sold" : "2014-11-05" } { "index": {}} { "price" : 30000, "color" : "green", "make" : "ford", "sold" : "2014-05-18" } { "index": {}} { "price" : 15000, "color" : "blue", "make" : "toyota", "sold" : "2014-07-02" } { "index": {}} { "price" : 12000, "color" : "green", "make" : "toyota", "sold" : "2014-08-19" } { "index": {}} { "price" : 20000, "color" : "red", "make" : "honda", "sold" : "2014-11-05" } { "index": {}} { "price" : 80000, "color" : "red", "make" : "bmw", "sold" : "2014-01-01" } { "index": {}} { "price" : 25000, "color" : "blue", "make" : "ford", "sold" : "2014-02-12" }
Now when we run an aggregation, we use the color.hash
field instead of the color
field:
이제, aggregation을 실행할 때, color
field 대신에, color.hash
field를 사용한다.
GET /cars/transactions/_search { "size" : 0, "aggs" : { "distinct_colors" : { "cardinality" : { "field" : "color.hash" } } } }
Now the cardinality
metric will load the values (the precomputed hashes) from "color.hash"
and use those in place of dynamically hashing the original value.
이제, cardinality
metric은 color.hash
에서 값(미리 계산된 hash)을 가져온다. 그리고, 원래의 값을 동적으로 hashing하는 대신, 그 값을 사용할 것이다.
The savings per document is small, but if hashing each field adds 10 nanoseconds and your aggregation touches 100 million documents, that adds 1 second per query. If you find yourself using cardinality
across many documents, perform some profiling to see if precomputing hashes makes sense for your deployment.
document당 절약되는 시간은 작다. 그러나 각 field를 hashing하는데 10ns가 추가되고, aggregation이 1억건의 document를 읽어야 한다면, query당 1초가 추가된다. 많은 document에 대해 cardinality
를 사용하고 있다면, 미리 계산하는 hash가 합리적이라는 것을 알아보기 위해, 약간의 profiling을 수행해 보자.
'2.X > 4. Aggregations' 카테고리의 다른 글
4-07-3. Sorting Based on "Deep" Metrics (0) | 2017.09.23 |
---|---|
4-08. Approximate Aggregations (0) | 2017.09.23 |
4-08-2. Calculating Percentiles (0) | 2017.09.23 |
4-09. Significant Terms (0) | 2017.09.23 |
4-09-1. significant_terms Demo (0) | 2017.09.23 |