Análisis de ideas para la pregunta D de la Copa Huashu 2023 Modelación Matemática

0 ideas de preguntas

(Comparta las preguntas del concurso en CSDN tan pronto como salgan)
https://blog.csdn.net/dc_sinor

1 Información de la competición

Para cultivar la conciencia de los estudiantes sobre la innovación y su capacidad para utilizar métodos matemáticos y tecnología informática para resolver problemas prácticos, la Asociación de Investigación Científica del Futuro y Pronóstico de Tianjin y el Comité Profesional de Modelos Matemáticos y Big Data de la Asociación de Investigación del Futuro de China (coorganizador) decidieron Realizar la competencia de modelado de la Copa Nacional de Matemáticas para Estudiantes Universitarios de la Copa Wasu. El objetivo del concurso es cultivar el espíritu científico de los estudiantes universitarios y su capacidad para utilizar las matemáticas para resolver problemas prácticos, sentar las bases para el cultivo de talentos innovadores y cultivar y seleccionar talentos destacados para todos los ámbitos de la vida.

La competencia cubre una amplia gama de campos y puede incluir, entre otros, problemas de matemáticas aplicadas, estadística, investigación de operaciones, teoría de la optimización y otros campos relacionados. Los temas de la competencia generalmente se derivan de problemas prácticos y se anima a los equipos participantes a utilizar métodos de modelado matemático para resolver desafíos de la vida real.

2 tiempo de competición

Hora de finalización de la inscripción: 12:00 horas del 3 de agosto de 2023

Hora de inicio de la competición: 18:00 horas del 3 de agosto de 2023 (jueves)

Hora de finalización del concurso: 20:00 horas del 6 de agosto de 2023 (domingo)

Hora de anuncio de resultados: Se estima que será entre mediados y finales de agosto de 2023

3 Estructura organizacional

organizador:

Comité Organizador del Concurso Nacional de Modelado Matemático de Pregrado de la Copa Wasu

Sociedad de Investigación Científica Futuro y Pronóstico de Tianjin

Comité Profesional de Modelos Matemáticos y Big Data de la Asociación de Investigación del Futuro de China (coorganizador)

4 Modelado de tipos de problemas comunes

Si bien las preguntas de la competencia aún no se han actualizado, el Sr. A le brindará un resumen de los modelos matemáticos comúnmente utilizados en el modelado matemático de la Wasu Cup. Las preguntas pertenecen básicamente a los siguientes cuatro tipos de problemas, y las soluciones correspondientes también son dada por el Sr. A.

Ellos son:

  • Modelo de clasificación
  • Modelo de optimización
  • Modelo predictivo
  • Modelo de evaluación

4.1 Problema de clasificación

Análisis discriminante:
También conocido como "método de discriminación", es un método de análisis estadístico multivariable que utiliza varios valores característicos de un determinado objeto de investigación para determinar su tipo de atribución en las condiciones de clasificación determinada.
El principio básico es establecer una o más funciones discriminantes de acuerdo con ciertos criterios discriminantes; utilizar una gran cantidad de datos sobre el objeto de investigación para determinar los coeficientes indeterminados en la función discriminante y calcular el índice discriminante; en base a esto, es posible para determinar a qué categoría pertenece una determinada muestra. Cuando se obtienen datos de una nueva muestra, es necesario determinar a qué categoría de tipos conocidos pertenece la muestra, este tipo de problema pertenece al problema de análisis discriminante.

Análisis de conglomerados: el
análisis de conglomerados o agrupamiento consiste en dividir objetos similares en diferentes grupos o más subconjuntos mediante métodos de clasificación estática, de modo que los objetos miembros en el mismo subconjunto tengan atributos similares Comunes Incluyendo distancias espaciales más cortas en el sistema de coordenadas, etc.
El análisis de conglomerados en sí no es un algoritmo específico, sino una tarea general que debe resolverse. Se puede lograr mediante diferentes algoritmos que varían mucho en términos de comprender de qué están hechos los grupos y cómo encontrarlos de manera eficiente.

Clasificación de redes neuronales:
la red neuronal BP es un algoritmo de aprendizaje de redes neuronales. Es una red neuronal jerárquica compuesta por una capa de entrada, una capa intermedia y una capa de salida, y la capa intermedia se puede expandir en múltiples capas. Red neuronal RBF (función de base radial): la red neuronal de función de base radial (RBF-función de base radial) es una red de avance de tres capas con una única capa oculta. Simula la estructura de las redes neuronales del cerebro humano que se ajustan localmente y cubren los campos receptivos de cada uno. Red neuronal perceptrón: es una red neuronal con una sola capa de neuronas computacionales y la función de transferencia de la red es una unidad de umbral lineal. Se utiliza principalmente para simular las características perceptivas del cerebro humano. Red neuronal lineal: es una red neuronal relativamente simple, que consta de una o más neuronas lineales. Se utiliza una función lineal como función de transferencia, por lo que la salida puede tener cualquier valor. Red neuronal autoorganizada: la red neuronal autoorganizada incluye una red de competencia autoorganizada, una red de mapeo de características autoorganizada, cuantificación de vectores de aprendizaje y otras formas de estructura de red. Algoritmo K vecino más cercano: el algoritmo de clasificación K vecino más cercano es un método teóricamente maduro y uno de los algoritmos de aprendizaje automático más simples.

4.2 Problema de optimización

Programación lineal:
teoría matemática y método para estudiar el problema de valores extremos de la función objetivo lineal bajo restricciones lineales. Abreviatura inglesa LP. Es una rama importante de la investigación de operaciones y se utiliza ampliamente en la planificación de la producción, la logística y el transporte, la asignación de recursos, la inversión financiera y otros campos. Método de modelado: enumerar las restricciones y la función objetivo; dibujar la región factible representada por las restricciones; encontrar la solución óptima y el valor óptimo de la función objetivo dentro de la región factible.

Programación entera:
las variables del programa (todas o parte de él) están restringidas a números enteros y se denominan programación entera. Si las variables en un modelo lineal están restringidas a números enteros, se llama programación lineal entera. Los métodos actualmente populares para resolver la programación entera a menudo sólo son aplicables a la programación lineal entera. Un tipo de programación matemática que requiere que todas o algunas de las variables de la solución sean números enteros. A partir de la composición de restricciones, se puede subdividir en programación entera lineal, cuadrática y no lineal.

Programación no lineal:
la programación no lineal es programación matemática con restricciones no lineales o funciones objetivas y es una rama importante de la investigación de operaciones. La programación no lineal estudia el problema de valores extremos de una función real de n elementos bajo un conjunto de restricciones de igualdad o desigualdad, y al menos una de la función objetivo y las restricciones es una función no lineal de una cantidad desconocida. La situación en la que la función objetivo y las restricciones son funciones lineales pertenece a la programación lineal.

Programación dinámica:
incluidos problemas de mochila, problemas de producción y operación, problemas de gestión de fondos, problemas de asignación de recursos, problemas del camino más corto y problemas complejos de confiabilidad de sistemas, etc.
La programación dinámica se utiliza principalmente para resolver problemas de optimización de procesos dinámicos divididos en etapas por tiempo, sin embargo, cierta programación estática que no tiene nada que ver con el tiempo (como la programación lineal y la programación no lineal) puede considerarse como una toma de decisiones de varias etapas. El proceso siempre que se introduzca artificialmente el factor tiempo también se puede resolver fácilmente utilizando métodos de programación dinámica.

Programación multiobjetivo:
la programación multiobjetivo es una rama de la programación matemática. Estudiar la optimización de más de una función objetivo sobre una región determinada. Cualquier problema de programación multiobjetivo consta de dos partes básicas:
(1) más de dos funciones objetivo;
(2) varias restricciones. Hay n variables de decisión, k funciones objetivo y m ecuaciones de restricción, entonces:
Z=F(X) es un vector de función de k dimensiones, Φ(X) es un vector de función de m dimensiones; G es una constante de m dimensiones vector;

4.3 Problema de predicción

Predicción de ajuste de regresión
La predicción de ajuste es el proceso de establecer un modelo para aproximar la secuencia de datos real, que es adecuado para sistemas en desarrollo. Al construir un modelo, normalmente es necesario especificar un origen de tiempo y una unidad de tiempo significativos. Además, el modelo debería seguir teniendo sentido ya que t tiende a infinito. La importancia de estudiar la predicción ajustada como un sistema separado es enfatizar su naturaleza de "imagen". El establecimiento de un modelo de predicción debe ser lo más consistente posible con el sistema real, este es el principio de ajuste. El grado de ajuste se puede medir mediante mínimos cuadrados, máxima verosimilitud y mínima desviación absoluta.

Pronóstico gris El
pronóstico gris es una predicción realizada sobre un sistema gris. Es un método para predecir sistemas que contienen factores inciertos. La predicción de Gray identifica el grado de disimilitud en las tendencias de desarrollo entre los factores del sistema, es decir, realiza análisis de correlación y genera y procesa datos originales para encontrar las reglas de los cambios del sistema, genera secuencias de datos con fuertes regularidades y luego establece el modelo de ecuaciones diferenciales correspondiente para predecir la tendencia de desarrollo futuro de las cosas. Construye un modelo de predicción gris utilizando una serie de valores cuantitativos observados a intervalos iguales que reflejan las características del objeto de predicción y predice la cantidad característica en un momento determinado en el futuro, o el tiempo para alcanzar una determinada cantidad característica.
Pronóstico de Markov: Es un método que se puede utilizar para pronosticar la oferta interna de recursos humanos de una organización. Su idea básica es conocer las reglas de los cambios de personal en el pasado, para predecir la tendencia de los cambios de personal futuros. La matriz de transformación es en realidad La matriz de probabilidad de transición describe la forma general de entrada, salida y movilidad interna de empleados en la organización, y puede usarse como base para predecir la oferta laboral interna.

Predicción de la red neuronal BP
La red BP (Back-ProPagation Network), también conocida como red neuronal de retropropagación, corrige continuamente los pesos y umbrales de la red mediante el entrenamiento de datos de muestra para hacer que la función de error disminuya a lo largo de la dirección del gradiente negativo y se acerque a la salida esperada. . Es un modelo de red neuronal ampliamente utilizado, utilizado principalmente para la aproximación de funciones, identificación y clasificación de modelos, compresión de datos y predicción de series de tiempo.

Método de máquina de vectores de soporte La
máquina de vectores de soporte (SVM), también conocida como red de vectores de soporte [1], es un modelo de aprendizaje supervisado y algoritmos de aprendizaje relacionados que utilizan análisis de clasificación y regresión para analizar datos. Dado un conjunto de muestras de entrenamiento, cada muestra de entrenamiento se etiqueta como perteneciente a una u otra de dos categorías. El algoritmo de entrenamiento de una máquina de vectores de soporte (SVM) crea un modelo que asigna nuevas muestras a una de dos categorías, lo que lo convierte en un clasificador lineal binario no probabilístico (aunque en un entorno de clasificación probabilística, existen cosas como la corrección de Prato). máquinas de vectores de soporte). El modelo de máquina de vectores de soporte representa muestras como puntos mapeados en el espacio, de modo que las muestras con una sola categoría se puedan separar lo más claramente posible. Todas estas muestras nuevas se asignan al mismo espacio y su categoría se puede predecir en función del lado del intervalo en el que se encuentran.

4.4 Cuestiones de evaluación

El proceso de jerarquía analítica
se refiere a tratar un problema complejo de toma de decisiones multiobjetivo como un sistema, descomponer el objetivo en múltiples objetivos o criterios y luego descomponerlo en varios niveles de índices múltiples (o criterios, restricciones) y calcular el niveles a través del método de cuantificación difusa de indicadores cualitativos Clasificación única (ponderación) y clasificación total como método sistemático para la toma de decisiones de optimización de objetivos (múltiples indicadores) y esquemas múltiples.

El método de la distancia entre buenas y malas soluciones
, también conocido como método de la solución ideal, es un método eficaz de evaluación de índices múltiples. Este método construye la solución ideal positiva y la solución ideal negativa del problema de evaluación, es decir, los valores máximo y mínimo de cada indicador, y calcula la cercanía relativa de cada solución a la solución ideal, es decir, la distancia cercana. a la solución ideal positiva y lejos de la solución ideal negativa, para ordenar los planes y seleccionar el plan óptimo.

El método de evaluación integral difusa
es un método integral de evaluación de ofertas basado en matemáticas difusas. Este método de evaluación integral transforma la evaluación cualitativa en una evaluación cuantitativa basada en la teoría de membresía de las matemáticas difusas, es decir, utilizando matemáticas difusas para realizar una evaluación general de cosas u objetos que están restringidos por múltiples factores. Tiene las características de resultados claros y una fuerte sistematicidad, puede resolver mejor problemas confusos y difíciles de cuantificar y es adecuado para resolver diversos problemas no deterministas.

El método de análisis de correlación de grises (método de evaluación integral de grises)
es una medida de la correlación entre factores entre dos sistemas que cambia con el tiempo o con diferentes objetos, lo que se denomina grado de correlación. En el proceso de desarrollo del sistema, si las tendencias de cambio de dos factores son consistentes, es decir, el grado de cambio sincrónico es alto, se puede decir que el grado de correlación entre los dos es alto; de lo contrario, el grado de correlación es alto. bajo. Por lo tanto, el método de análisis de correlación gris se basa en el grado de similitud o disimilitud en las tendencias de desarrollo entre factores, es decir, el "grado de correlación gris", como método para medir el grado de correlación entre factores.

Método de análisis de correlación canónica: es una comprensión de la matriz de covarianza cruzada. Es un método de análisis estadístico multivariado que utiliza la correlación entre pares de variables integrales para reflejar la correlación general entre los dos grupos de indicadores. Su principio básico es: para captar la correlación entre los dos grupos de indicadores en su conjunto, se extraen dos variables integrales representativas U1 y V1 de los dos grupos de variables (respectivamente, son los coeficientes lineales de cada variable en los dos grupos de variables), combinación), utilizando la correlación entre estas dos variables integrales para reflejar la correlación general entre los dos conjuntos de indicadores.

El análisis de componentes principales (reducción de dimensionalidad)
es un método estadístico. Un conjunto de variables posiblemente correlacionadas se convierte en un conjunto de variables linealmente no correlacionadas mediante una transformación ortogonal. El conjunto convertido de variables se denomina componentes principales. Cuando se utilizan métodos de análisis estadístico para estudiar temas de múltiples variables, demasiadas variables aumentarán la complejidad del tema. La gente, naturalmente, espera que el número de variables sea menor y la información obtenida sea mayor. En muchos casos existe cierta correlación entre variables, cuando existe cierta correlación entre dos variables se puede interpretar que existe cierta superposición en la información que reflejan las dos variables sobre este tema. El análisis de componentes principales consiste en eliminar las variables repetidas (variables estrechamente relacionadas) para todas las variables propuestas originalmente y crear la menor cantidad posible de variables nuevas, de modo que estas nuevas variables no estén correlacionadas en pares y estas nuevas variables reflejen la información sobre El tema se mantiene lo más original posible. Un método estadístico que intenta recombinar las variables originales en un nuevo conjunto de varias variables integrales no relacionadas y, al mismo tiempo, de acuerdo con las necesidades reales, puede eliminar algunas variables integrales más pequeñas para reflejar la mayor cantidad de información posible sobre las variables originales. Se llama análisis de componentes principales o análisis de componentes principales. El análisis de componentes principales también es un método utilizado en matemáticas para reducir la dimensionalidad.

Método de análisis factorial (reducción de dimensionalidad)
El análisis factorial se refiere al estudio de técnicas estadísticas para extraer factores comunes de grupos de variables. Fue propuesto por primera vez por el psicólogo británico CE Spearman. Encontró que había una cierta correlación entre las puntuaciones de los estudiantes en varias materias. Los estudiantes que obtuvieron buenos resultados en una materia a menudo tenían mejores puntuaciones en otras, y por lo tanto especuló si había algunos posibles factores comunes o algunas condiciones intelectuales generales. ' desempeño académico. El análisis factorial puede encontrar factores representativos ocultos entre muchas variables. Agrupar variables de la misma naturaleza en un factor puede reducir el número de variables y probar hipótesis sobre la relación entre variables.

El método de evaluación integral de la red neuronal BP
es una red de retroalimentación multicapa entrenada de acuerdo con el algoritmo de retropropagación de errores y es uno de los modelos de redes neuronales más utilizados. La red BP puede aprender y almacenar una gran cantidad de relaciones de mapeo de patrones de entrada-salida sin revelar de antemano las ecuaciones matemáticas que describen esta relación de mapeo. Su regla de aprendizaje es utilizar el método de descenso más pronunciado y ajustar continuamente los pesos y umbrales de la red mediante retropropagación para minimizar la suma de errores cuadrados de la red. La estructura topológica del modelo de red neuronal BP incluye capa de entrada, capa oculta y capa de salida.

Supongo que te gusta

Origin blog.csdn.net/m0_71450098/article/details/131994788
Recomendado
Clasificación