Copa Huashu 2023 Modelado matemático C Análisis de problemas

0 Ideas para el concurso

(Compartir en CSDN tan pronto como salgan las preguntas de la competencia)
https://blog.csdn.net/dc_sinor

1 Información de la competencia

Con el fin de cultivar la conciencia innovadora de los estudiantes y la capacidad de usar métodos matemáticos y tecnología informática para resolver problemas prácticos, la Asociación de Investigación de Ciencias de Pronóstico y Futuro de Tianjin y el Comité Profesional de Modelos Matemáticos y Datos Grandes de la Asociación de Investigación del Futuro de China (coorganizador) decidieron para llevar a cabo la competencia de modelado de matemáticas para estudiantes universitarios nacionales de la Copa Wasu. El objetivo de la competencia es cultivar el espíritu científico de los estudiantes universitarios y la capacidad de usar las matemáticas para resolver problemas prácticos, sentar las bases para el cultivo de talentos innovadores y cultivar y seleccionar talentos sobresalientes para todos los ámbitos de la vida.

El contenido de la competencia cubre una amplia gama de campos, que pueden incluir, entre otros, problemas en campos relacionados, como matemáticas aplicadas, estadísticas, investigación de operaciones y teoría de la optimización. Los temas de la competencia generalmente se derivan de problemas prácticos, y se alienta a los equipos a usar métodos de modelado matemático para resolver desafíos del mundo real.

2 tiempo de carrera

Hora de finalización del registro: 12:00, 3 de agosto de 2023

Hora de inicio de la competencia: 18:00 el 3 de agosto de 2023 (jueves)

Hora de finalización de la competencia: 20:00 el 6 de agosto de 2023 (domingo)

Hora de anuncio de resultados: Esperado de mediados a fines de agosto de 2023

3 Organización

organizador:

Comité Organizador del Concurso Nacional de Matemáticas de Pregrado en Modelado de la Copa Huashu

Asociación de Investigación de Ciencias de Predicción y Futuro de Tianjin

Comité Profesional de Big Data y Modelos Matemáticos de la Asociación de Investigación del Futuro de China (coorganizador)

4 Modelado de tipos de problemas comunes

Antes de que se actualicen las preguntas de la competencia, el Sr. A resumirá los modelos matemáticos que se usan a menudo en el modelado matemático de la Copa Huashu. Las preguntas pertenecen básicamente a los siguientes cuatro tipos de problemas, y las soluciones correspondientes también las proporciona el Sr. A.

Ellos son:

  • modelo de clasificación
  • modelo de optimización
  • modelo predictivo
  • modelo de evaluación

4.1 Problema de clasificación

Análisis discriminante:
también conocido como "método discriminante", es un método de análisis estadístico multivariante para distinguir el tipo de un objeto de investigación de acuerdo con varios valores propios de un determinado objeto de investigación bajo la condición de una determinada clasificación.
El principio básico es establecer una o más funciones discriminantes de acuerdo a ciertos criterios discriminantes; utilizar una gran cantidad de datos del objeto de investigación para determinar los coeficientes indeterminados en la función discriminante, y calcular el índice discriminante; con base en esto, se puede determina a qué categoría pertenece una determinada muestra. Cuando se obtienen datos de una nueva muestra, es necesario determinar a cuál de los tipos conocidos pertenece la muestra, este tipo de problema pertenece al problema de análisis discriminante.

Análisis de conglomerados: El
análisis de conglomerados o agrupamiento consiste en dividir objetos similares en diferentes grupos o más subconjuntos a través de una clasificación estática, de modo que los objetos miembros en un mismo subconjunto tengan atributos similares, comunes, incluyendo distancias espaciales más cortas en el sistema de coordenadas, etc.
El análisis de conglomerados en sí mismo no es un algoritmo específico, sino una tarea general a resolver. Se puede lograr con diferentes algoritmos que varían mucho en términos de comprensión de lo que constituye los clústeres y cómo encontrarlos de manera eficiente.

Clasificación de redes neuronales:
la red neuronal BP es un algoritmo de aprendizaje de redes neuronales. Es una red neuronal jerárquica compuesta por una capa de entrada, una capa intermedia y una capa de salida, y la capa intermedia se puede extender a múltiples capas. Red neuronal RBF (Función de base radial): La red neuronal de función de base radial (RBF-Función de base radial) es una red de alimentación directa de tres capas con una sola capa oculta. Simula la estructura de la red neuronal en el cerebro humano con campos receptivos superpuestos y ajustados localmente. Red neuronal perceptrón: es una red neuronal con una sola capa de neuronas computacionales, y la función de transferencia de la red es una unidad de umbral lineal. Se utiliza principalmente para simular las características de percepción del cerebro humano. Red neuronal lineal: es una red neuronal relativamente simple que consta de una o más neuronas lineales. Se utiliza una función lineal como función de transferencia, por lo que la salida puede ser cualquier valor. Red neuronal autoorganizada: la red neuronal autoorganizada incluye la red de competencia autoorganizada, la red de mapas de características autoorganizada, la cuantificación de vectores de aprendizaje y otras formas de estructura de red. Algoritmo de vecino más cercano: el algoritmo de clasificación de vecino más cercano es un método relativamente maduro en teoría y uno de los algoritmos de aprendizaje automático más simples.

4.2 Problema de optimización

Programación lineal:
la teoría matemática y el método para estudiar el problema de valor extremo de la función objetivo lineal bajo restricciones lineales. Abreviatura inglesa LP. Es una rama importante de la investigación de operaciones, ampliamente utilizada en la planificación de la producción, la logística y el transporte, la asignación de recursos, la inversión financiera y otros campos. Método de modelado: enumere las restricciones y la función objetivo, dibuje la región factible representada por las restricciones, encuentre la solución óptima y el valor óptimo de la función objetivo en la región factible.

Programación entera:
Las variables en la programación (todas o algunas) están restringidas a números enteros, lo que se conoce como programación entera. Cuando las variables en un modelo lineal están restringidas a números enteros, se denomina programación lineal entera. Los métodos actualmente populares para resolver la programación de enteros a menudo solo son aplicables a la programación lineal de enteros. Una clase de programación matemática que requiere que todas o algunas de las variables en la solución de un problema sean números enteros. A partir de la composición de restricciones, se puede subdividir en programación entera lineal, cuadrática y no lineal.

Programación no lineal: la
programación no lineal es una programación matemática con restricciones no lineales o funciones objetivas, y es una rama importante de la investigación de operaciones. La programación no lineal estudia el problema extremo de una función real n-aria bajo un conjunto de restricciones de igualdad o desigualdad, y al menos una de las funciones objetivo y las restricciones es una función no lineal de cantidad desconocida. El caso en el que tanto la función objetivo como las restricciones son funciones lineales se denomina programación lineal.

Programación dinámica:
incluye problemas de mochila, problemas de producción y gestión, problemas de gestión de capital, problemas de asignación de recursos, problemas de ruta más corta y problemas de confiabilidad de sistemas complejos, etc.
La programación dinámica se usa principalmente para resolver el problema de optimización del proceso dinámico dividido en etapas por tiempo, pero alguna programación estática (como la programación lineal y la programación no lineal) que no tienen nada que ver con el tiempo puede considerarse como una decisión de múltiples etapas. El proceso de fabricación, siempre que el factor tiempo se introduzca artificialmente, también se puede resolver convenientemente mediante el método de programación dinámica.

Programación multiobjetivo:
La programación multiobjetivo es una rama de la programación matemática. Estudiar la optimización de más de una función objetivo sobre un dominio dado. Cualquier problema de programación multiobjetivo consta de dos partes básicas:
(1) más de dos funciones objetivo;
(2) varias restricciones. Hay n variables de decisión, k funciones objetivo y m ecuaciones de restricción, entonces:
Z=F(X) es un vector de función k-dimensional, Φ(X) es un vector de función m-dimensional, G es una constante m-dimensional vector;

4.3 Problema de predicción

Regresión Fit Forecast
Fit Forecast es el proceso de construcción de un modelo para aproximar la secuencia de datos real, adecuado para sistemas de desarrollo. Al construir un modelo, normalmente es necesario especificar un origen de tiempo y una unidad de tiempo con un significado claro. Además, el modelo aún debería tener sentido ya que t tiende a infinito. La importancia de tomar la predicción adecuada como un tipo de investigación del sistema es enfatizar su naturaleza única de "símbolo". El establecimiento de un modelo de predicción debe ajustarse al sistema real tanto como sea posible, que es el principio de ajuste. El grado de ajuste se puede medir por mínimos cuadrados, máxima verosimilitud y mínima desviación absoluta.

Pronóstico gris
Pronóstico gris es el pronóstico realizado en el sistema gris. Es un método para predecir sistemas con factores inciertos. La predicción gris es identificar el grado de diferencia entre las tendencias de desarrollo de los factores del sistema, es decir, realizar un análisis de correlación y generar y procesar los datos originales para encontrar la ley de los cambios del sistema, generar una secuencia de datos con fuerte regularidad y luego establecer una ecuación diferencial correspondiente Modelos para predecir la tendencia de desarrollo futuro de las cosas. Utiliza una serie de valores cuantitativos que reflejan las características del objeto predicho observado en intervalos de tiempo iguales para construir un modelo de predicción gris para predecir la cantidad característica en un momento determinado en el futuro, o el tiempo para alcanzar una determinada cantidad característica .
Pronóstico de Markov: Es un método que se puede utilizar para predecir la oferta de recursos humanos internos en una organización. Su idea básica es averiguar la ley de los cambios de personal en el pasado, a fin de especular sobre la tendencia de los cambios de personal en el futuro. La matriz de conversión es en realidad La matriz de probabilidad de transición, que describe la forma general de entrada, salida y movilidad interna de los empleados en la organización, se puede utilizar como base para predecir la oferta laboral interna.

Predicción de la red neuronal BP
La red BP (Back-ProPagation Network), también conocida como red neuronal de retropropagación, corrige continuamente los pesos y umbrales de la red a través del entrenamiento de datos de muestra para que la función de error disminuya a lo largo de la dirección del gradiente negativo y se acerque a la salida deseada. Es un modelo de red neuronal ampliamente utilizado, que se utiliza principalmente para la aproximación de funciones, el reconocimiento y la clasificación de modelos, la compresión de datos y la predicción de series temporales.

Support Vector Machine Method
Support Vector Machine (SVM), también conocida como Support Vector Network [1], es un modelo de aprendizaje supervisado y sus algoritmos de aprendizaje relacionados que utilizan clasificación y análisis de regresión para analizar datos. Dado un conjunto de muestras de entrenamiento, cada muestra de entrenamiento se etiqueta como perteneciente a una u otra de las dos categorías. El algoritmo de entrenamiento de una máquina de vectores de soporte (SVM) crea un modelo que asigna nuevas muestras a una de dos clases, lo que lo convierte en un clasificador lineal binario no probabilístico (aunque en la configuración de clasificación probabilística, hay correcciones como las de Prato). Tales métodos usan soporte máquinas vectoriales). El modelo de máquina de vectores de soporte representa las muestras como puntos en un mapa en el espacio, de modo que las muestras con una sola clase se puedan separar con la mayor claridad posible. Todas estas muestras nuevas se asignan al mismo espacio, y es posible predecir a qué clase pertenecen según el lado del intervalo en el que se encuentran.

4.4 Preguntas de evaluación

Proceso de Jerarquía Analítica
se refiere a tomar un problema complejo de toma de decisiones con objetivos múltiples como un sistema, descomponiendo la meta en múltiples metas o criterios, y luego descomponiéndola en varios niveles de múltiples indicadores (o criterios, restricciones). y clasificación total como un método sistemático para la toma de decisiones de optimización objetiva (multi-indicador), multi-esquema.

El método de distancia de solución superior e inferior,
también conocido como método de solución ideal, es un método eficaz de evaluación de índices múltiples. Este método construye la solución ideal positiva y la solución ideal negativa del problema de evaluación, es decir, los valores máximo y mínimo de cada índice, y calcula la cercanía relativa de cada esquema al esquema ideal, es decir, la distancia cercana a la solución ideal positiva y lejos de la solución ideal negativa grado, para ordenar los esquemas, a fin de seleccionar el esquema óptimo.

El método de evaluación integral difuso
es un método de evaluación integral basado en matemáticas difusas. El método de evaluación integral convierte la evaluación cualitativa en evaluación cuantitativa de acuerdo con la teoría del grado de pertenencia de las matemáticas difusas, es decir, utiliza las matemáticas difusas para hacer una evaluación general de cosas u objetos restringidos por varios factores. Tiene las características de resultados claros y un sistema fuerte. Puede resolver bien problemas difusos y difíciles de cuantificar, y es adecuado para resolver varios problemas no deterministas.

El método de análisis relacional gris (método de evaluación integral gris)
es la medida de la correlación entre los factores entre los dos sistemas, que cambia con el tiempo o con diferentes objetos, y se denomina grado de correlación. En el proceso de desarrollo del sistema, si las tendencias cambiantes de los dos factores son consistentes, es decir, el grado de cambio sincrónico es alto, se puede decir que el grado de correlación entre los dos es alto; de lo contrario, es bajo. Por lo tanto, el método de análisis relacional gris se basa en el grado de similitud o disimilitud en la tendencia de desarrollo entre factores, es decir, el "grado relacional gris", como método para medir el grado de correlación entre factores.

Método de análisis de correlación canónica: es una comprensión de la matriz de covarianza cruzada y es un método de análisis estadístico multivariante que utiliza la relación de correlación entre pares de variables integrales para reflejar la correlación general entre dos grupos de indicadores. Su principio básico es: para comprender la correlación entre los dos grupos de indicadores en su conjunto, se extraen respectivamente dos variables integrales representativas U1 y V1 de los dos grupos de variables (respectivamente, las variables lineales de cada variable en las dos variables). Combinación de grupos), utilizando la correlación entre estas dos variables integrales para reflejar la correlación general entre los dos conjuntos de indicadores.

El análisis de componentes principales (reducción de la dimensionalidad)
es un método estadístico. A través de la transformación ortogonal, un grupo de variables que pueden estar correlacionadas se convierte en un grupo de variables linealmente no correlacionadas, y el grupo de variables convertidas se denomina componente principal. Cuando se utilizan métodos de análisis estadístico para estudiar temas de múltiples variables, demasiadas variables aumentarán la complejidad del tema. La gente, naturalmente, espera que el número de variables sea menor y que se obtenga más información. En muchos casos existe cierta correlación entre variables, cuando existe cierta correlación entre dos variables, se puede explicar que las dos variables reflejan cierta superposición en la información de este tema. El análisis de componentes principales consiste en eliminar variables redundantes (variables estrechamente relacionadas) para todas las variables propuestas originalmente, y establecer la menor cantidad posible de variables nuevas, de modo que estas nuevas variables sean irrelevantes en pares, y estas nuevas variables reflejen el aspecto de información del tema. debe mantenerse lo más original posible. Tratar de recombinar las variables originales en un nuevo grupo de varias variables integrales que son irrelevantes entre sí y, al mismo tiempo, de acuerdo con las necesidades reales, se pueden eliminar algunas variables menos integrales para reflejar la mayor cantidad de información posible sobre el variables originales El método estadístico se llama análisis de componentes principales o el análisis de componentes principales también es un método utilizado en matemáticas para la reducción de la dimensionalidad.

Análisis factorial (reducción de la dimensionalidad)
El análisis factorial se refiere al estudio de técnicas estadísticas para extraer factores comunes de grupos de variables. Fue propuesto por primera vez por el psicólogo británico CE Spearman. Encontró que existe una cierta correlación entre las puntuaciones de los estudiantes en varias materias.Los estudiantes con buenas puntuaciones en una materia a menudo tienen mejores puntuaciones en otras materias, por lo que especula si existen algunos factores comunes potenciales o algunas condiciones generales de inteligencia. rendimiento académico de los estudiantes. El análisis factorial puede encontrar factores representativos ocultos entre muchas variables. La clasificación de variables de la misma naturaleza en un factor puede reducir el número de variables y probar la hipótesis de la relación entre variables.

El método de evaluación integral de la red neuronal de BP
es una red de avance de múltiples capas entrenada de acuerdo con el algoritmo de propagación de errores, y es uno de los modelos de red neuronal más utilizados. La red BP puede aprender y almacenar una gran cantidad de relaciones de mapeo de patrones de entrada-salida sin revelar las ecuaciones matemáticas que describen la relación de mapeo por adelantado. Su regla de aprendizaje es usar el método de descenso más pronunciado para ajustar continuamente los pesos y umbrales de la red a través de la retropropagación para minimizar la suma de los errores cuadráticos de la red. La estructura topológica del modelo de red neuronal de BP incluye capa de entrada (entrada), capa oculta (ocultar capa) y capa de salida (capa de salida).

Supongo que te gusta

Origin blog.csdn.net/math_assistant/article/details/131994702
Recomendado
Clasificación