Principios de Pronóstico y Gestión de la Salud (PHM)

introducir

Principios de predicción y gestión del estado (PHM)
El paquete completo de PHM consta de cinco módulos: adquisición de datos, supervisión y detección de anomalías, diagnóstico de fallas, predicción, planificación y toma de decisiones. Con la detección, el diagnóstico y la predicción adecuados, así como las medidas de mitigación, un sistema PHM sólido permitirá alertar con anticipación sobre la degradación de la planta nuclear y posiblemente descartar consecuencias graves debido a fallas y averías, al tiempo que ayudará a mitigar la carga de actividades de mantenimiento innecesarias.

Se hace hincapié en el uso de enfoques basados ​​en datos en PHM y los últimos métodos analíticos basados ​​en datos, representados principalmente por inteligencia artificial (IA) y aprendizaje automático (ML), mejoran el control automatizado y la operación autónoma de sistemas complejos que van desde robustos Aplicaciones de detección de anomalías.

inserte la descripción de la imagen aquí
Flujo del sistema PHM

  1. Detección en tiempo real: los datos recopilados del SSC de destino se monitorean continuamente para detectar desviaciones del comportamiento normal que son indicadores de fallas o anomalías incipientes.
  2. Diagnóstico de fallas: una vez que se detecta una anomalía, es importante diagnosticar la falla, localizar la falla en un componente o área específica de la estructura (es decir, aislamiento de fallas) y determinar la causa raíz de la falla (es decir, falla identificación).
  3. Predecir el futuro: en función de cómo se degradará el SSC, se aplica un modelo de pronóstico apropiado para estimar su vida útil restante (RUL).
  4. O&M: Informe la planificación de operaciones y mantenimiento (O&M) mediante la integración de cálculos predictivos y evaluaciones de riesgos para las acciones de mitigación propuestas para un control y una toma de decisiones óptimos (en última instancia, autónomos) basados ​​en la salud actual y futura supuesta del SSC objetivo.

Algunos puntos:
El monitoreo de condición (CM) describe un conjunto de actividades que brindan estimación de estado y advertencia temprana de comportamiento anormal, y el proceso de detección de fallas intenta identificar fallas incipientes a partir de datos de detección.
Los datos recopilados de los sensores para la inspección de estado no se pueden usar directamente y se requiere un procesamiento de datos adecuado.
La multidimensionalidad de los datos masivos y la redundancia entre los atributos de los datos son desafíos para la CM y la detección de fallas. Por lo tanto, algunos procesos de limpieza de datos: generalmente requieren la selección de características, incluida la selección de atributos de alta calidad, la eliminación de características colineales y la selección de características de subconjunto óptimas del conjunto de datos original. El objetivo de la selección es encontrar un subconjunto de variables de la matriz completa de datos de sensores sin procesar que puedan describir de manera efectiva el flujo de datos de entrada y, al mismo tiempo, reducir el impacto de errores/ruidos o información irrelevante (los mejores datos se pueden usar después de la limpieza).

  • método de selección de características

Los métodos de selección de funciones se pueden dividir en tres categorías: filtros, contenedores y métodos de incrustación.

Los métodos de filtro emplean estadísticas univariadas para medir las propiedades intrínsecas de las características. En general, los métodos de filtrado utilizan técnicas de clasificación de variables como criterio principal para la selección de variables. Las variables de entrada se califican utilizando un criterio de clasificación adecuado y se aplica un umbral para filtrar las características menos relevantes. Varias definiciones y medidas de algunas correlaciones variables, como información mutua, puntuación de Fisher, alivio, separabilidad y correlación, y otras métricas ampliamente utilizadas están dentro del alcance de los métodos de filtro.
Ventajas: velocidad y capacidad de escalar a grandes conjuntos de datos, cálculo ligero, no es fácil de sobreajustar.
Desventaja: el subconjunto seleccionado puede no ser óptimo ya que se pueden obtener subconjuntos redundantes. Además, aquellas características esenciales que son menos informativas por sí mismas pero informativas cuando se combinan con otras características pueden descartarse incorrectamente.

Los contenedores usan predictores como cajas negras y el desempeño del predictor como una función objetiva para evaluar subconjuntos de variables. Utilizan un algoritmo de aprendizaje para buscar en el espacio de los subconjuntos de funciones y calcular la precisión estimada del algoritmo de aprendizaje para cada función que se puede agregar o eliminar del subconjunto de funciones. Además, se basan en algoritmos de clasificación utilizados para evaluar soluciones candidatas (es decir, subconjuntos de características) generados por el algoritmo de búsqueda y, por lo tanto, son más costosos desde el punto de vista computacional. Los métodos de envoltorio generalmente brindan resultados más precisos que los métodos de filtro, pero requieren un cuidado especial para evitar el sobreajuste, y los envoltorios generalmente no se adaptan bien a grandes conjuntos de datos. El proceso de selección se basa en un algoritmo de aprendizaje particular que intenta ajustarse a un conjunto de datos determinado. En general, sigue un enfoque de búsqueda codicioso, evaluando todas las posibles combinaciones de funciones de acuerdo con los criterios de evaluación. Por ejemplo, los algoritmos de ramificación y enlace, los algoritmos genéticos, la optimización de enjambres de partículas, la búsqueda flotante adaptativa, la eliminación de características recursivas y las medidas de similitud se incluyen en la categoría de métodos de envoltura.

Los métodos integrados completan el proceso de selección de características dentro de la construcción del propio algoritmo ML. Esta clase de método combina las cualidades de filtros y contenedores. La búsqueda de un subconjunto de características óptimas está integrada en la construcción del clasificador y puede verse como una búsqueda en el espacio combinado de subconjuntos de características e hipótesis. Los métodos integrados usan medidas independientes para determinar el mejor subconjunto para una cardinalidad dada y usan un algoritmo de aprendizaje para seleccionar el mejor subconjunto entre los mejores subconjuntos para cardinalidad diferente. Por lo tanto, son específicos de un algoritmo de aprendizaje dado y tienen la ventaja de considerar la interacción de las características con los modelos de clasificación (como los métodos de envoltura), mientras que son mucho menos costosos desde el punto de vista computacional (como los métodos de filtro).
La regularización y los modelos basados ​​en árboles son algunos métodos comunes para la selección de funciones mediante funciones incrustadas. Los pesos del clasificador también se pueden usar para clasificar las características para eliminarlas, y las características se pueden seleccionar realizando un análisis de sensibilidad en los pesos correspondientes. Algunos métodos como usar Support Vector Machine (SVM) como clasificador, optimizar la ecuación SVM y asignar pesos a cada función.

  • Método de detección de anomalías

Modelo físico:

Cuando se entienden bien los mecanismos físicos subyacentes, se puede intentar derivar modelos analíticos basados ​​en primeros principios para describir el comportamiento esperado nominal o defectuoso del SSC.
Las ventajas de los modelos basados ​​en la física son: primero, consideran explícitamente las propiedades mecánicas, materiales y operativas; segundo, se pueden desarrollar y evaluar incluso antes de que el sistema se construya y opere; tercero, se pueden usar para comprender una amplia gama de funcionamiento y condiciones materiales siguiente comportamiento.
Pero el inconveniente correspondiente es que simular sistemas no lineales complejos utilizando solo principios básicos y funciones matemáticas es un desafío, requiere mucho tiempo y, a menudo, es imposible. Además, el uso de suposiciones simplificadoras (ya veces irrazonables) para compensar el rendimiento del tiempo de ejecución o el conocimiento incompleto del dominio debilita inevitablemente la base física de dichos modelos.
Por lo tanto, los enfoques basados ​​en datos han mostrado potencial para caracterizar las operaciones del sistema y desarrollar modelos de sistemas, ya que son independientes en términos de modelado y se basan únicamente en los datos del sistema.

Métodos de detección de anomalías basados ​​en estadísticas multivariantes:

El análisis de componentes principales (PCA) y los mínimos cuadrados parciales (PLS) son dos técnicas estadísticas multivariadas básicas que se han aplicado para detectar fallas. Una vez que se ha seleccionado un método de detección, se requiere una métrica para identificar fallas. [Entre los métodos basados ​​en PCA y PLS, la estadística t cuadrada de Hotelling se usa ampliamente para detectar anomalías con un umbral específico. La suma de los cuadrados de los errores de pronóstico, también conocida como estadística Q, es otro indicador de la variación de los eventos que no puede explicarse mediante un modelo de componentes principales. ]
El cálculo de las estadísticas de monitoreo y los umbrales para los métodos basados ​​en PCA o PLS se realiza bajo el supuesto de que los datos de los sensores tienen una distribución gaussiana y una correlación lineal y que el proceso opera en una sola condición estacionaria. En la práctica, estas condiciones no son las ideales, por lo que se utilizan otros métodos para relajar los supuestos de los métodos estadísticos tradicionales.
Análisis de componentes independientes (ICA): descubre componentes estadísticamente independientes y no gaussianos, una alternativa confiable para la detección de fallas. Los modelos de mezcla gaussiana (GMM) son otra técnica de procesamiento de datos no gaussiana de uso común. Fuzzy SVM basado en k-vecinos más cercanos para reducir la carga computacional y resolver el problema del desequilibrio de datos y los valores atípicos.

  • Solución de problemas

En el área general de PHM, el diagnóstico de fallas comienza después de que se detecta una falla durante el monitoreo de condición. El diagnóstico se divide además en aislamiento de fallas e identificación de fallas, que intenta identificar el dispositivo o componente donde ocurrió la falla, así como determinar la causa de la falla. Lógicamente, estas dos subtareas del diagnóstico de averías se suelen realizar como un único análisis. El análisis se basa en los síntomas de falla, que principalmente adoptan la forma de firmas disponibles o de falla, obtenidas en forma de datos detectados y mediciones.

Un esquema de clasificación común para los problemas de diagnóstico es el enfoque de modelado, donde se utiliza un enfoque basado en modelos o basado en datos para abordar el problema. Sin embargo, esta no es una distinción completamente clara, ya que puede haber cierta superposición entre los dos enfoques y se pueden desarrollar varios enfoques híbridos. Un área particular de superposición es el diagnóstico de fallas utilizando sistemas expertos basados ​​en reglas . Estos sistemas expertos se basan en reglas "si-entonces" para diagnosticar el estado del sistema en función de los síntomas de falla. Se puede ver que el desarrollo de reglas "si-entonces" se puede hacer a través de enfoques basados ​​en modelos o basados ​​en datos.

Enfoque basado en modelos:

Los enfoques comunes basados ​​en modelos incluyen el uso de observadores o filtros estadísticos, la verificación de la paridad entre los modelos de plantas y las salidas de los sensores, la generación de residuos en el dominio de la frecuencia, el uso de modelos de gráficos causales (como gráficos dirigidos con signos y árboles de fallas) y métodos basados ​​en física cualitativa. (como simulación cualitativa y teoría cualitativa de procesos). Un esquema de clasificación común para estos métodos es clasificar los métodos de filtrado, paridad y frecuencia como cuantitativos, mientras que los modelos gráficos y los métodos físicos cualitativos se consideran cualitativos.

Enfoque basado en reglas:

El enfoque basado en reglas determina las consecuencias asociadas con los síntomas de falla medidos/detectados activando reglas específicas "si-entonces". Tradicionalmente, las bases de reglas se desarrollan utilizando el juicio de expertos y el conocimiento previo sobre el sistema. Si bien los sistemas basados ​​en el conocimiento de ingeniería pueden ser atractivos, los problemas en los sistemas clásicos basados ​​en reglas pueden incluir bases de reglas que crecen hasta tamaños inmanejables para describir más y más escenarios, y los sistemas basados ​​en reglas pueden fallar en situaciones regulares. Y operar cuando no está del todo seguro qué regla debe activarse dado un síntoma medido que no puede clasificarse simplemente en una sola categoría cualitativa como "bajo" o "alto". La forma más común de lidiar con esta incertidumbre es usar un sistema basado en reglas difusas . Los ejemplos incluyen el uso de niveles de confianza o el desarrollo de sistemas expertos basados ​​en reglas de creencias. Sin embargo, las herramientas de diagnóstico de fallas basadas en reglas difusas siguen siendo los métodos más utilizados para lidiar con la incertidumbre. La base de la regla difusa, y la lógica difusa general que opera, determinan el resultado de una entrada dada determinando el grado en que una entrada "clara" pertenece a un estado cualitativo "borroso" y utilizando el estado difuso, que actúa como un no -mapa lineal entre entrada y salida.

Enfoque basado en datos:

Los enfoques basados ​​en datos generalmente se basan en grandes cantidades de datos de procesos, a menudo históricos, para desarrollar modelos y métodos de inferencia. Los métodos categorizados tradicionalmente como basados ​​en datos incluyen redes neuronales artificiales: métodos discriminativos (utilizados en redes neuronales tradicionales), modelos basados ​​en estadísticas bayesianas o uso de redes bayesianas (BN): métodos generativos, SVM: discriminación y PCA de forma generativa (sin supervisión) o discriminatoria ( supervisado), así como el uso de combinaciones de estos métodos.

  • predecir:

La predicción es una de las principales tareas de PHM, ya que sus resultados se utilizan directamente para apoyar la toma de decisiones proactivas en las prácticas de mantenimiento. Los módulos de predicción generalmente se definen como el proceso de predecir el tiempo restante antes de que un dispositivo ya no pueda realizar una función específica (es decir, RUL) (es decir, predecir la vida útil restante de un componente del dispositivo). La predicción depende en gran medida de las fases de monitoreo, detección y diagnóstico: la precisión de estas fases afecta la estimación de RUL. Existe la necesidad de desarrollar un método de predicción general que pueda predecir con precisión el estado futuro de un dispositivo dado un conjunto de mediciones relacionadas con el estado actual del dispositivo. Los métodos se clasifican en términos generales en cuatro categorías: métodos basados ​​en la física , métodos basados ​​en el conocimiento , métodos basados ​​en datos y métodos híbridos .

Métodos basados ​​en la física:

Los métodos de predicción basados ​​en la física intentan describir el proceso de degradación de la SSC en evolución basándose en un modelo matemático integral (generalmente en forma de una serie de ecuaciones diferenciales ordinarias o parciales) que representa la física subyacente de la falla y codifica la relación de entrada-salida de los primeros principios. . El modelo matemático derivado se combina con los datos de CM para identificar los parámetros del modelo, que luego se utilizan para predecir la evolución futura del estado de salud del SSC. Ejemplos comunes de enfoques basados ​​en la física son los modelos de crecimiento de grietas, donde la ley de Paris (también conocida como la ecuación de Paris-Erdogan) o el sistema de ecuaciones de Forman se utilizan para relacionar la tasa de crecimiento de una grieta por fatiga con el factor de intensidad de tensión y el número de ciclos de fatiga. Algunos otros ejemplos incluyen la predicción de la degradación de los cojinetes, la evolución del deslizamiento de la turbina, la degradación de la tubería, la vida útil de la batería y la falla de la caja de engranajes.
Inconvenientes: 1. Incapacidad para modelar: cuando los procesos físicos subyacentes que conducen a las fallas a menudo no se comprenden completamente o no se pueden modelar explícitamente, se deben realizar suposiciones y estimaciones simplificadas para facilitar el desarrollo del modelo, lo que lleva a la aplicabilidad del modelo a la ingeniería del mundo real. sistemas de sospecha sexual. 2. Especificidad del método físico: por su naturaleza específica del componente, los métodos basados ​​en la física son difíciles de reconfigurar para adaptarse a dominios alternativos, y la mayoría de ellos solo son aplicables a nivel de componente o subsistema. 3. Cuando se aplica a problemas de predicción a nivel de sistema o donde es necesario representar múltiples modos de falla (SSC típico en instalaciones nucleares), la complejidad del modelo y el costo computacional asociado pueden volverse prohibitivos para el análisis y la toma de decisiones en línea.

Métodos basados ​​en estadísticas:

Los métodos de pronóstico basados ​​en estadísticas, también conocidos como métodos de pronóstico empíricos, son un enfoque de caja gris que considera la degradación de los activos como un proceso estocástico sujeto a la variabilidad y la incertidumbre de diferentes fuentes. En métodos estadísticos, RUL es una variable aleatoria cuya función de densidad de probabilidad se determina a partir de datos empíricos.
Los pronósticos basados ​​en estadísticas generalmente se pueden dividir en dos subcategorías. ① Los modelos de la primera subcategoría se basan en datos de CM de series temporales que describen directamente los procesos de degradación subyacentes de las SSC monitoreadas. Tanto los modelos de regresión como los basados ​​en Markov entran en esta subcategoría. En los modelos basados ​​en regresión, la previsión de datos de series temporales se logra utilizando un proceso de promedio móvil autorregresivo que supone que el estado futuro del SSC objetivo depende linealmente de las observaciones pasadas y del ruido aleatorio normalmente distribuido. Estos modelos son fáciles de implementar y económicos de computar, pero su desempeño está fuertemente influenciado por la información de tendencias observacionales históricas y pueden no ser confiables en etapas de falla incipientes y predicciones a largo plazo. En los modelos basados ​​en Markov, se supone que el proceso de degradación transiciona dentro de un espacio de estado finito que satisface la propiedad de Markov (o sin memoria), pero este modelo no ha sido ampliamente adoptado porque todos los estados saludables requieren observación directa. Además, la suposición sin memoria puede no ser aplicable a algunos procesos de degradación prácticos y, por lo general, requiere una gran cantidad de datos o conocimiento empírico para construir la matriz de probabilidad de transición de estado. ② Los modelos de la segunda subcategoría se basan en procesos de estado parcialmente observados y datos de CM indirectos (es decir, datos que solo pueden indicar indirectamente el estado de salud subyacente del SSC monitoreado, como los datos de vibración). Los métodos basados ​​en filtrado aleatorio basados ​​en el teorema de Bayes entran en esta subcategoría*. Basados ​​en DBN, los filtros de Kalman y los filtros de partículas* son los dos algoritmos de filtrado más comunes. El algoritmo de filtro de Kalman está diseñado para problemas gaussianos lineales y se han propuesto algunas versiones mejoradas; el algoritmo de filtro de partículas es un método Monte Carlo secuencial, que es una mejor opción en sistemas no gaussianos no lineales. Ambos métodos de filtrado tienen muchas aplicaciones en la predicción mecánica de RUL debido a su capacidad para caracterizar la incertidumbre futura del proceso de degradación al actualizar la estimación del estado probabilístico de las mediciones en línea.

Enfoque basado en el conocimiento:

Los métodos de pronóstico basados ​​en el conocimiento (también conocidos como basados ​​en la experiencia o basados ​​en reglas) se basan completamente en el conocimiento experto. Este enfoque no se basa en un modelo físico del sistema. Su implementación es relativamente simple; sin embargo, solo son adecuados para casos en los que existe conocimiento experto para imitar la representación y el razonamiento similares a los humanos utilizando sistemas expertos o familias de algoritmos de lógica difusa.
Al igual que los sistemas expertos para el diagnóstico de fallas mencionados anteriormente, los sistemas expertos para la predicción tienen como objetivo convertir el conocimiento explícito de los expertos en reglas "si-entonces" codificadas por humanos; los métodos de predicción basados ​​en la lógica difusa pueden abordar los problemas inherentes del conocimiento experto . Incertidumbre; la predicción basada en la similitud es otro enfoque basado en el conocimiento que elimina el requisito de modelar el conocimiento cualitativo de los expertos del dominio, y aunque este enfoque a veces se clasifica como un enfoque basado en datos, en realidad sigue la idea de modelado basada en reglas . , que consiste en realizar una evaluación de similitud entre los casos monitoreados y la biblioteca de fallas previamente conocida.

Enfoque basado en datos:

El enfoque de pronóstico basado en datos utiliza directamente datos de CM del SSC objetivo, sin información de principios básicos ni conocimiento experto. Se basan en las tendencias de los datos observados para construir modelos matemáticos para estimar el estado futuro del equipo monitoreado.
Desventajas: 1. Gran cantidad de datos: los modelos predictivos que utilizan métodos basados ​​en datos generalmente requieren una gran cantidad de datos que cubren una amplia gama de condiciones, incluidos datos de ejecución hasta falla para modelos de degradación. Disponibilidad de datos de ejecución hasta el fallo para un SSC específico 2. Calidad de los datos: el rendimiento y el nivel de confianza de las predicciones de RUL están relacionados con la cantidad y la calidad de los datos disponibles para inferir los parámetros del modelo y determinar los umbrales de fallo 3. Restricciones de los parámetros: enfoque basado en datos No se puede extrapolar más allá del dominio abarcado por los datos de entrenamiento.

Algunos métodos de aprendizaje automático:

Los métodos de predicción basados ​​en ML intentan aprender patrones de degradación y predecir RUL directamente a partir de las observaciones disponibles (o características extraídas) utilizando técnicas ML o DL. En los enfoques basados ​​en ML, no se requiere una comprensión física previa de los SSC analizados. Sin embargo, como enfoque de caja negra, los resultados son difíciles de interpretar debido a la falta de transparencia. A menos que se realice una cuantificación adicional de la incertidumbre (a menudo utilizando métodos de inferencia bayesianos), los métodos basados ​​en ML generalmente proporcionan estimaciones puntuales de RUL en lugar de tratamientos probabilísticos. Se han utilizado varios algoritmos de ML para la predicción, que se pueden agrupar en términos generales en variantes de ANN, Regresión de procesos gaussianos (GPR) y SVM.

ANN es la técnica de modelado más común en los métodos predictivos basados ​​en datos, como el diagnóstico de fallas. Algunos métodos ANN como FFNN y Recurrent Neural Network (RNN) son los más populares. FFNN es la forma más simple de ANN, que se utiliza principalmente para conocer la relación entre el índice de salud y RUL. RNN es un descendiente de FFNN, que se caracteriza por la capacidad de procesar explícitamente datos de series temporales. Los RNN estándar sufren gradientes que se desvanecen y explotan cuando aprenden dependencias temporales a largo plazo; la unidad recurrente cerrada (GRU) y las redes LSTM son variantes de RNN para abordar este problema. En general, GRU es menos costoso computacionalmente y más adecuado para conjuntos de datos más pequeños, mientras que LSTM es mejor para conjuntos de datos grandes. Además de las dos ANN de uso común mencionadas anteriormente, existen otras variantes, como redes neuronales wavelet, variantes de CNN, redes antagónicas generativas y aprendizaje por refuerzo, entre otras.

El modelo GPR se basa en procesos gaussianos (procesos de daño acumulativo con variables aleatorias distribuidas gaussianas multivariadas conjuntas) para predecir el estado de salud futuro. En comparación con las redes neuronales artificiales, este enfoque funciona bien para conjuntos de datos pequeños y grandes, aunque a menudo tiene una alta complejidad computacional y de almacenamiento. Como se detalla en los módulos Detección de fallas (sección "Monitoreo de condiciones y detección de fallas") y Diagnóstico (sección "Enfoques basados ​​en datos"), las SVM son herramientas de aprendizaje supervisado bien establecidas basadas en el concepto central de vectores de soporte. Se han aplicado diferentes variantes de SVM para la predicción mecánica de RUL.

Método híbrido:

Los métodos de pronóstico basados ​​en la física, en el conocimiento y en los datos tienen sus ventajas y limitaciones. Si bien la selección del método apropiado depende del conocimiento del comportamiento del sistema y de los datos disponibles, los métodos híbridos o de fusión intentan combinar las fortalezas de diferentes tipos de métodos para mejorar los resultados de predicción de RUL. Además, en el mundo real, ningún método único se considera suficiente para dar cuenta de todas las posibles fallas y modos de falla del sistema analizado. Los métodos híbridos pueden consistir en cualquier combinación de los métodos antes mencionados. De particular interés es el conjunto de técnicas basadas en la física y ML/DL, donde tanto el conocimiento de la física de fallas como los datos experimentales pueden explotarse adecuadamente, de tal manera que los métodos combinatorios faciliten la interpretación física de las relaciones de entrada-salida en lugar del procesamiento de caja negra. mientras que no requiere una comprensión física tan precisa o datos de gran tamaño como sus contrapartes independientes. Otra dirección popular es desarrollar herramientas predictivas híbridas (por ejemplo, filtros de Kalman y filtros de partículas) bajo el marco bayesiano debido a su robustez y capacidad de razonar bajo incertidumbre. Esta dirección ha sido objeto de varios estudios y se ha aplicado a diversas aplicaciones, como maquinaria rotativa, baterías y condensadores electrolíticos.

  • Toma de decisiones:

Una vez que se determina el estado de salud actual y futuro de las SSC monitoreadas en base a los datos de CM y los modelos de diagnóstico/pronóstico, es fundamental poder actuar de manera rápida y correcta antes de que ocurran posibles fallas/fallas (incipientes). se convirtió en una emergencia. Por lo tanto, la toma de decisiones se considera un módulo integral en la suite PHM general. En este caso, el proceso de toma de decisiones se refiere al uso de los resultados de los módulos anteriores: análisis de fallas y estimaciones de diagnóstico de probabilidad de falla (POF), predicciones RUL a partir de predicciones, para informar la planificación de O&M y la selección de acciones de mantenimiento óptimas en múltiples módulos. Alternativa opciones ejecutadas para el desempeño operativo más favorable. El proceso puede ser realizado por humanos con diferentes niveles de apoyo a la decisión del operador o, eventualmente, mediante la habilitación de tecnología autónoma. Si se implementa correctamente, este módulo desempeñará un papel importante y beneficioso en la gestión de la integridad de los activos, así como en la planificación de las actividades de operación y mantenimiento y los niveles de personal.

Teoría de la decisión estadística:

La teoría de la decisión estadística se ocupa de la toma de decisiones basada en el conocimiento estadístico, que revela las incertidumbres involucradas en los problemas de decisión. El campo de la estadística clásica tiene como objetivo utilizar información muestral producida por investigaciones estadísticas para inferir el uso de datos; en contraste, la teoría de la decisión estadística intenta combinar información muestral con otros aspectos del problema para tomar decisiones óptimas. Además de la información de muestra, generalmente hay otros dos tipos de información que son relevantes. El primero es una comprensión de las posibles consecuencias de una decisión. A menudo, este conocimiento se puede cuantificar determinando las pérdidas incurridas para cada posible decisión y para varios posibles valores de incertidumbre. La segunda, información previa, generalmente proviene de experiencias pasadas con situaciones similares que involucran incertidumbres similares. Los métodos estadísticos que buscan explotar información previa se denominan análisis bayesiano. Los métodos bayesianos se encuentran entre los métodos matemáticos mencionados con mayor frecuencia, especializados para procesos de toma de decisiones en una amplia gama de aplicaciones.

Decisiones basadas en reglas:

Un modelo basado en reglas 1) identifica estados del sistema, 2) asocia estados con tareas y 3) accede a reglas almacenadas para ejecutar tareas. Un procedimiento operativo de planta (OP) es esencialmente un módulo de toma de decisiones basado en reglas ejecutado por un operador humano. El OP se desarrolló para operaciones normales para garantizar que la planta esté operando dentro de los límites y condiciones de operación y para brindar orientación para llevar a cabo de manera segura todos los modos normales de operación. Para condiciones inusuales e incidentes basados ​​en el diseño, cree procedimientos basados ​​en eventos o síntomas. Un enfoque para automatizar un sistema de procesos de fábrica es hacer cumplir las reglas a través de tablas de decisiones, que asocian condiciones con acciones a realizar.

Teoría de la utilidad:

Los economistas desarrollaron la teoría de la utilidad para explicar y predecir la toma de decisiones humana bajo riesgo e incertidumbre. El supuesto básico de la teoría de la utilidad es que quien toma decisiones racionales siempre elige la alternativa que maximiza el valor esperado de la utilidad. Dentro de esta suposición hay una suposición adicional de que los tomadores de decisiones humanos aceptan y usan códigos racionales para que se puedan construir representaciones matemáticas que permitan predicciones del comportamiento humano. La teoría de la utilidad puede servir como un bloque de construcción fundamental para los sistemas de toma de decisiones para el control autónomo en tiempo real. Dado un conjunto de soluciones alternativas plausibles, los riesgos de implementación identificados para cada alternativa pueden compararse para encontrar la solución menos riesgosa. Las funciones independientes de pérdida y ganancia relacionadas con la OP de la planta u otras estrategias de decisión se pueden formular como relaciones no lineales. Una Implementación Ejemplar de la Teoría de la Utilidad de la NPP ver Se propone un modelo de asesoramiento basado en un diagrama de influencia para brindar apoyo a la toma de decisiones al personal de la planta.

Proceso de decisión de Markov:

Para los problemas de decisión secuencial en entornos estocásticos, se aplican los mismos principios de máxima utilidad esperada, pero las decisiones óptimas requerirán un razonamiento sobre futuras secuencias de acciones y observaciones. Los procesos de decisión de Markov (MDP) proporcionan un marco matemático para modelar decisiones donde los resultados son en parte aleatorios y en parte bajo el control del tomador de decisiones. Los MDP se han utilizado con éxito para una amplia gama de problemas de control automático, en particular, la conducción autónoma, y, a menudo, resuelven problemas de optimización utilizando programación dinámica (DP) para elegir la decisión correcta. Los MDP parcialmente observables (POMDP) ​​son una generalización de los MDP que modelan los procesos de toma de decisiones, donde se supone que el MDP representa la dinámica del sistema, pero no todos los estados son observables. En cambio, las mediciones recibidas por el modelo son predicciones incompletas y, a menudo, ruidosas. Por lo tanto, el modelo debe estimar la distribución posterior sobre el espacio de estados posibles. POMDP calcula la función de valor en el espacio de creencias. La creencia es una función de toda la distribución de probabilidad. Una solución exacta de POMDP produce acciones óptimas para cada creencia posible en el espacio de estado, maximizando así la función de valor. Sin embargo, este proceso de maximización requiere un algoritmo iterativo que está lejos de ser práctico. Para cualquier número razonable de estados, sensores y actuadores, la complejidad de la función de valor es prohibitiva. Una solución propuesta para este desafío es usar DP diferencial (un algoritmo de control óptimo similar a la optimización de trayectoria basado en DP), ya que solo optimiza en un espacio de control sin restricciones.

Modelo de evento discreto:

Muchos dispositivos y sistemas artificiales y algunos sistemas naturales exhiben solo valores o resultados discretos. Estos tipos de sistemas se describen mejor como sistemas de eventos discretos (DES). La apertura y el cierre de una válvula o el inicio de un proceso de arranque de una bomba son ejemplos de procesos de eventos discretos en NPP. Estos procesos suelen estar asociados con los PO, y los operadores de la planta se encargan de su control. DES satisface las siguientes propiedades: 1) El espacio de estado es un conjunto discreto; 2) El mecanismo de transición de estado está dirigido por eventos. En tales sistemas, el tiempo no es una variable independiente adecuada y los métodos tradicionales de ecuaciones diferenciales, como la teoría de control moderna, no son aplicables a ellos. Los DES generalmente se modelan mediante autómatas de estado finito o redes de Petri.Estos modelos utilizan estructuras de transición de estado definidas para describir posibles eventos en cada estado del sistema, y ​​difieren en la forma en que representan la información de estado.

Resumir

Un conjunto completo de PHM aprovecha la tecnología de sensores para monitorear el estado, detectar anomalías, diagnosticar fallas, predecir RUL y administrar fallas de manera proactiva en sistemas de ingeniería complejos como NPP. Un sistema PHM completo se divide en cinco módulos/pasos.

1) Recopilación de datos : el proceso de recopilación de datos de un SSC de interés es necesario para predecir con precisión y confiabilidad su estado de salud. Los datos recopilados pueden ser datos sensoriales o datos de eventos. Los datos de detección, que son mediciones rastreadas por sensores instalados en el dispositivo de destino, son el tema central de la sección "Adquisición de datos: tecnologías de sensores emergentes", que presenta algunos sensores emergentes que se han utilizado en aplicaciones nucleares o que se cree que serán útiles dentro de poco. Central nuclear de CM Technology.

2) Monitoreo y detección : los datos recopilados del SSC objetivo se monitorean continuamente para detectar desviaciones del comportamiento normal, que son indicadores de anomalías. Como se describe en la sección Monitoreo de condición y detección de fallas, el proceso de detección de fallas intenta identificar fallas y fallas incipientes. Los datos sin procesar multidimensionales de alta capacidad recopilados por los sensores aún no se pueden usar directamente, lo que requiere una selección de características adecuada. La sección "Métodos de selección de características" describe tres categorías de métodos de selección de características: métodos de filtro, contenedor e incrustación. En la sección "Métodos de detección de anomalías", se destaca el trabajo de investigación que utiliza métodos basados ​​en datos para detectar anomalías. En particular, se ha prestado atención a varios métodos de detección de fallas basados ​​en estadísticas multivariantes.

3) Diagnóstico de fallas : una vez que se detecta una anomalía, es crucial diagnosticar la falla, en otras palabras, localizar la falla en un componente o área específica de la estructura (es decir, aislamiento de la falla) y determinar la causa raíz de la falla. fallo (es decir, identificación de fallo). Como se describe en la sección "Resolución de problemas", el diagnóstico se puede realizar utilizando un enfoque basado en modelos (sección "Enfoque basado en modelos"), un enfoque basado en reglas (sección "Enfoque basado en reglas") o un enfoque basado en datos . (sección "Enfoques basados ​​en datos"). Sin embargo, estas distinciones no son del todo claras y se pueden desarrollar varios enfoques híbridos.

4) Pronóstico : en función de cómo degenerará el SSC, luego aplique un modelo predictivo apropiado para estimar su RUL. Considerado uno de los aspectos más beneficiosos de PHM, el pronóstico es un módulo paradójico, especialmente en la industria nuclear. No existe un método universalmente aceptado para todos los problemas de pronóstico, y se han desarrollado varios algoritmos para aplicar a situaciones específicas o clases de componentes. La sección "Pronósticos", basada en una colección de artículos de revisión recientes, divide estos algoritmos en cuatro categorías de modelos: basados ​​en la física (sección "Métodos basados ​​en la física"), basados ​​en el conocimiento (sección "Métodos basados ​​en el conocimiento"), datos Modelos basados ​​en (sección "Enfoques basados ​​en datos") e híbridos (sección "Métodos híbridos"). Los modelos predictivos basados ​​en datos, que van desde métodos estadísticos tradicionales (sección "Predicción basada en estadísticas") hasta técnicas avanzadas de ML/DL (sección "Predicción basada en aprendizaje automático"), son de particular interés para sistemas grandes y complejos, y han sido la mayoría de los temas de investigación en el campo de la predicción mecanicista. Los métodos híbridos combinan aún más las fortalezas de diferentes tipos de modelos para mejorar los resultados de predicción de RUL.

5) Toma de decisiones : en función del estado de salud actual y futuro supuesto del SSC objetivo, se informa la planificación de O&M para un control y una toma de decisiones óptimos (y, en última instancia, autónomos) a través de la integración de cálculos predictivos y evaluaciones de riesgo de las acciones de mitigación propuestas. Como paso integral en la filosofía más amplia de PHM, los módulos de toma de decisiones autónomos no se han estudiado ampliamente en el dominio nuclear. Dado el estado actual de las centrales nucleares y las lagunas aparentes, la sección "Toma de decisiones" resume primero el enfoque general utilizado en la toma de decisiones (sección "Metodología de toma de decisiones").

Supongo que te gusta

Origin blog.csdn.net/m0_56075892/article/details/126689838
Recomendado
Clasificación