ES报错:[padre] Datos demasiado grandes, los datos para [<http_request>] serían mayores que el límite de XXXX

Cuando es recibe este error: [padre] Datos demasiado grandes, los datos para [<http_request>] serían mayores que el límite de [23941899878/22.2gb], con { bytes_wanted=23941987633 bytes_limit=23941899878 }


La razón habitual es que la memoria de los datos de campo está ocupada y otros índices no pueden asignar más memoria.

Además, si la declaración de consulta no está bien escrita, se agregarán y consultarán demasiados datos en una sola solicitud, lo que también ocupará mucha memoria y una solicitud provocará OOM. Por lo tanto, tenga cuidado de no limitar la cantidad de depósitos de agregación al realizar estadísticas.

resolver:

Ejecute estos dos comandos en kibana:

#Limitar el porcentaje de uso de memoria indices.fielddata.cache.size: 20%. Si se excede el límite, los datos de datos de campo existentes en la memoria se borrarán.

#El valor predeterminado es ilimitado, lo que limita el uso de la memoria, pero provocará desalojos y recargas frecuentes, una gran pérdida de rendimiento de IO, así como fragmentación de la memoria y gc.

PUT _cluster/settings
{  
	"persistent": {    
		"indices.breaker.fielddata.limit": "30%"   
	}
}

#清理集群所有使用内存缓存
POST /_cache/clear

Si kibana no puede ingresar, ejecute el siguiente curl

Nota: número de cuenta, contraseña

#限定内存使用百分比 indices.fielddata.cache.size: 20%,超出限制,清除内存已有fielddata数据。

curl  -u 账号:密码 -XPUT "http://localhost:9200/_cluster/settings" -H 'Content-Type: application/json' -d'{  "persistent": {    "indices.breaker.fielddata.limit": "20%"   }}'


#清理集群所有使用内存缓存
curl  -u 账号:密码 -XPOST "http://localhost:9200/_cache/clear"

¡En este punto, el problema está básicamente resuelto! !

Guess you like

Origin blog.csdn.net/m0_71867302/article/details/131520964