Cuando es recibe este error: [padre] Datos demasiado grandes, los datos para [<http_request>] serían mayores que el límite de [23941899878/22.2gb], con { bytes_wanted=23941987633 bytes_limit=23941899878 }
La razón habitual es que la memoria de los datos de campo está ocupada y otros índices no pueden asignar más memoria.
Además, si la declaración de consulta no está bien escrita, se agregarán y consultarán demasiados datos en una sola solicitud, lo que también ocupará mucha memoria y una solicitud provocará OOM. Por lo tanto, tenga cuidado de no limitar la cantidad de depósitos de agregación al realizar estadísticas.
resolver:
Ejecute estos dos comandos en kibana:
#Limitar el porcentaje de uso de memoria indices.fielddata.cache.size: 20%. Si se excede el límite, los datos de datos de campo existentes en la memoria se borrarán.
#El valor predeterminado es ilimitado, lo que limita el uso de la memoria, pero provocará desalojos y recargas frecuentes, una gran pérdida de rendimiento de IO, así como fragmentación de la memoria y gc.
PUT _cluster/settings
{
"persistent": {
"indices.breaker.fielddata.limit": "30%"
}
}
#清理集群所有使用内存缓存
POST /_cache/clear
Si kibana no puede ingresar, ejecute el siguiente curl
Nota: número de cuenta, contraseña
#限定内存使用百分比 indices.fielddata.cache.size: 20%,超出限制,清除内存已有fielddata数据。
curl -u 账号:密码 -XPUT "http://localhost:9200/_cluster/settings" -H 'Content-Type: application/json' -d'{ "persistent": { "indices.breaker.fielddata.limit": "20%" }}'
#清理集群所有使用内存缓存
curl -u 账号:密码 -XPOST "http://localhost:9200/_cache/clear"
¡En este punto, el problema está básicamente resuelto! !