Analyse des questions de modélisation mathématique de la Coupe de Shenzhen 2023

0 Idées pour le concours

(Partager sur CSDN dès que les questions du concours sortent)
https://blog.csdn.net/dc_sinor

1 Informations sur le concours

Le concours mathématique de modélisation de la coupe de Shenzhen est un concours national de modélisation mathématique organisé à Shenzhen. Le concours vise à cultiver la pensée novatrice, la capacité de résolution de problèmes et l'esprit d'équipe des étudiants, et à proposer des solutions en simulant des problèmes pratiques et en utilisant des outils et des méthodes mathématiques.

Le sujet du défi sera publié sur le site Web du Centre de technologie mathématique de Shenzhen Shanglong le 25 juillet. Les étudiants du collégial, les étudiants de premier cycle, les étudiants des cycles supérieurs, les enseignants et les passionnés de modélisation mathématique peuvent former des équipes pour participer, et le nombre maximum de chaque équipe ne doit pas dépasser quatre. Chaque équipe choisit un sujet et remplit un essai d'entrée. Chaque équipe doit s'inscrire sur le système de défi et soumettre un document de recherche complet avant le 7 septembre. Les documents de recherche doivent être clairs, complets et conformes aux normes académiques, y compris les solutions et les résultats complets. Le groupe d'experts du comité d'organisation du défi sélectionnera les équipes participantes pour participer à la soutenance finale, et fournira plus d'informations ou de données de fond et des suggestions pour réviser le document de recherche.

2 temps de course

Heure de début du concours : 25 juillet pour publier le sujet du concours

Heure de fin du concours : avant le 7 septembre, chaque équipe complète son inscription sur le système et soumet un document de recherche complet

3 Organisation

Shenzhen Association for Science and Technology
China Society of Industrial and Applied Mathematics
Comité d'organisation du Shenzhen Cup Mathematical Modeling Challenge
Shenzhen Shanglong Mathematical Technology and Interdisciplinary Industrialization R&D Center

4 Modélisation des types de problèmes courants

Bien que les questions du concours n'aient pas encore été mises à jour, M. A résumera les modèles mathématiques souvent utilisés dans la modélisation mathématique de la Coupe de Shenzhen. Les questions appartiennent essentiellement aux quatre types de problèmes suivants, et les solutions correspondantes sont également données par M. UN.

Ils sont:

  • modèle de classification
  • modèle d'optimisation
  • modèle prédictif
  • modèle d'évaluation

4.1 Problème de classification

Analyse discriminante :
également appelée "méthode discriminante", est une méthode d'analyse statistique multivariée permettant de distinguer le type d'un objet de recherche selon diverses valeurs propres d'un certain objet de recherche sous condition d'une certaine classification.
Le principe de base est d'établir une ou plusieurs fonctions discriminantes selon certains critères discriminants ; utiliser une grande quantité de données de l'objet de recherche pour déterminer les coefficients indéterminés dans la fonction discriminante, et calculer l'indice discriminant ; sur cette base, il peut être déterminé à quelle catégorie appartient un certain échantillon. Lorsqu'un nouvel échantillon de données est obtenu, il est nécessaire de déterminer à quel type connu appartient l'échantillon.Ce type de problème appartient au problème de l'analyse discriminante.

Analyse de cluster :
l'analyse de cluster ou le clustering consiste à diviser des objets similaires en différents groupes ou plusieurs sous-ensembles via une classification statique, de sorte que les objets membres du même sous-ensemble aient des attributs similaires, communs, y compris des distances spatiales plus courtes dans le système de coordonnées, etc.
L'analyse de cluster elle-même n'est pas un algorithme spécifique, mais une tâche générale à résoudre. Cela peut être réalisé avec différents algorithmes qui varient considérablement en termes de compréhension de ce qui constitue les clusters et de la manière de les trouver efficacement.

Classification du réseau neuronal :
le réseau neuronal BP est un algorithme d'apprentissage du réseau neuronal. Il s'agit d'un réseau neuronal hiérarchique composé d'une couche d'entrée, d'une couche intermédiaire et d'une couche de sortie, et la couche intermédiaire peut être étendue à plusieurs couches. Réseau de neurones RBF (Radial Basis Function) : Le réseau de neurones à fonction de base radiale (RBF-Radial Basis Function) est un réseau à trois couches avec une seule couche cachée. Il simule la structure du réseau neuronal dans le cerveau humain avec des champs récepteurs ajustés localement et se chevauchant mutuellement. Réseau de neurones Perceptron : il s'agit d'un réseau de neurones avec une seule couche de neurones de calcul, et la fonction de transfert du réseau est une unité de seuil linéaire. Il est principalement utilisé pour simuler les caractéristiques perceptives du cerveau humain. Réseau neuronal linéaire : Il s'agit d'un réseau neuronal relativement simple composé d'un ou plusieurs neurones linéaires. Une fonction linéaire est utilisée comme fonction de transfert, de sorte que la sortie peut être n'importe quelle valeur. Réseau de neurones auto-organisé : le réseau de neurones auto-organisé comprend un réseau de compétition auto-organisé, un réseau de cartes de caractéristiques auto-organisées, la quantification vectorielle d'apprentissage et d'autres formes de structure de réseau. Algorithme K-plus proche voisin : L'algorithme de classification K-plus proche voisin est une méthode relativement mature en théorie et l'un des algorithmes d'apprentissage automatique les plus simples.

4.2 Problème d'optimisation

Programmation linéaire :
La théorie mathématique et la méthode d'étude du problème des valeurs extrêmes de la fonction objective linéaire sous contraintes linéaires. Abréviation anglaise LP. C'est une branche importante de la recherche opérationnelle, largement utilisée dans la planification de la production, la logistique et le transport, l'allocation des ressources, l'investissement financier et d'autres domaines. Méthode de modélisation : répertorier les contraintes et la fonction objectif ; dessiner la région réalisable représentée par les contraintes ; trouver la solution optimale et la valeur optimale de la fonction objectif dans la région réalisable.

Programmation en nombres entiers :
les variables de la programmation (toutes ou certaines) sont limitées aux nombres entiers, ce que l'on appelle la programmation en nombres entiers. Lorsque les variables d'un modèle linéaire sont limitées à des nombres entiers, on parle de programmation linéaire en nombres entiers. Les méthodes actuellement populaires pour résoudre la programmation en nombres entiers ne sont souvent applicables qu'à la programmation linéaire en nombres entiers. Une classe de programmation mathématique qui exige que tout ou partie des variables dans la solution d'un problème soient des nombres entiers. A partir de la composition des contraintes, elle peut être subdivisée en programmation linéaire, quadratique et non linéaire en nombres entiers.

Programmation non linéaire :
La programmation non linéaire est une programmation mathématique avec des contraintes non linéaires ou des fonctions objectives, et est une branche importante de la recherche opérationnelle. La programmation non linéaire étudie le problème extremum d'une fonction réelle n-aire sous un ensemble de contraintes d'égalité ou d'inégalité, et au moins l'une de la fonction objectif et des contraintes est une fonction non linéaire de quantité inconnue. Le cas où la fonction objectif et les contraintes sont des fonctions linéaires est appelé programmation linéaire.

Programmation dynamique :
y compris les problèmes de sac à dos, les problèmes de production et de gestion, les problèmes de gestion du capital, les problèmes d'allocation des ressources, les problèmes de chemin le plus court et les problèmes complexes de fiabilité des systèmes, etc.
La programmation dynamique est principalement utilisée pour résoudre le problème d'optimisation du processus dynamique divisé en étapes par le temps, mais certaines programmations statiques (telles que la programmation linéaire et la programmation non linéaire) qui n'ont rien à voir avec le temps peuvent être considérées comme une décision en plusieurs étapes. processus de fabrication tant que le facteur temps est introduit artificiellement, peut également être résolu de manière pratique par la méthode de programmation dynamique.

Programmation multi-objectifs :
La programmation multi-objectifs est une branche de la programmation mathématique. Étudier l'optimisation de plus d'une fonction objectif sur un domaine donné. Tout problème de programmation multi-objectifs se compose de deux parties de base :
(1) plus de deux fonctions objectifs ;
(2) plusieurs contraintes. Il y a n variables de décision, k fonctions objectifs et m équations de contrainte, alors :
Z=F(X) est un vecteur de fonction à k dimension, Φ(X) est un vecteur de fonction à m dimension ; G est une constante à m dimension vecteur;

4.3 Problème de prédiction

Régression Fit Forecast
Fit Forecast est le processus de construction d'un modèle pour approximer la séquence de données réelle, adaptée aux systèmes de développement. Lors de la construction d'un modèle, il est généralement nécessaire de spécifier une origine de temps et une unité de temps avec une signification claire. De plus, le modèle devrait toujours avoir un sens car t tend vers l'infini. L'importance de prendre la prédiction d'ajustement comme une sorte de recherche de système est de souligner sa seule nature "symbolique". L'établissement d'un modèle de prédiction doit se conformer le plus possible au système réel, c'est le principe de l'ajustement. Le degré d'ajustement peut être mesuré par les moindres carrés, le maximum de vraisemblance et l'écart absolu minimum.

Prévision grise
La prévision grise est la prévision faite sur le système gris. C'est une méthode de prédiction de systèmes à facteurs incertains. La prédiction grise consiste à identifier le degré de différence entre les tendances de développement des facteurs du système, c'est-à-dire à effectuer une analyse de corrélation, et à générer et traiter les données d'origine pour trouver la loi des changements du système, générer une séquence de données avec une forte régularité, puis établir une équation différentielle correspondante Modèles pour prédire la tendance future du développement des choses. Il utilise une série de valeurs quantitatives qui reflètent les caractéristiques de l'objet prédit observé à des intervalles de temps égaux pour construire un modèle de prédiction gris pour prédire la quantité caractéristique à un certain moment dans le futur, ou le temps pour atteindre une certaine quantité caractéristique .
Prévision de Markov : C'est une méthode qui peut être utilisée pour prédire l'offre de ressources humaines internes dans une organisation. Son idée de base est de connaître la loi des changements de personnel dans le passé, afin de spéculer sur la tendance des futurs changements de personnel. La matrice de conversion est en fait La matrice de probabilité de transition, qui décrit la forme globale de l'entrée, de la sortie et de la mobilité interne des employés dans l'organisation, peut être utilisée comme base pour prédire l'offre de main-d'œuvre interne.

Prédiction du réseau neuronal BP
Le réseau BP (Back-ProPagation Network), également connu sous le nom de réseau neuronal de rétropropagation, corrige en permanence les poids et les seuils du réseau grâce à la formation d'échantillons de données afin que la fonction d'erreur diminue le long de la direction du gradient négatif et se rapproche de la sortie souhaitée. Il s'agit d'un modèle de réseau neuronal largement utilisé, principalement utilisé pour l'approximation de fonctions, la reconnaissance et la classification de modèles, la compression de données et la prédiction de séries chronologiques.

Support Vector Machine Method
Support Vector Machine (SVM), également connu sous le nom de Support Vector Network [1], est un modèle d'apprentissage supervisé et ses algorithmes d'apprentissage associés qui utilisent la classification et l'analyse de régression pour analyser les données. Étant donné un ensemble d'échantillons d'apprentissage, chaque échantillon d'apprentissage est étiqueté comme appartenant à l'une ou l'autre des deux catégories. L'algorithme de formation d'une machine à vecteurs de support (SVM) crée un modèle qui attribue de nouveaux échantillons à l'une des deux classes, ce qui en fait un classificateur linéaire binaire non probabiliste (bien que dans le cadre de la classification probabiliste, il existe des corrections comme celles de Prato. Ces méthodes utilisent le support machines vectorielles). Le modèle de machine à vecteurs de support représente les échantillons sous forme de points sur une carte dans l'espace, de sorte que les échantillons d'une seule classe puissent être séparés aussi clairement que possible. Tous ces nouveaux échantillons correspondent au même espace, et il est possible de prédire à quelle classe ils appartiennent en fonction de quel côté de l'intervalle ils tombent.

4.4 Questions d'évaluation

Le processus de hiérarchie analytique
fait référence à la prise d'un problème complexe de prise de décision à objectifs multiples en tant que système, à la décomposition de l'objectif en plusieurs objectifs ou critères, puis à sa décomposition en plusieurs niveaux d'indicateurs multiples (ou critères, contraintes). et le classement total en tant que méthode systématique pour une prise de décision objective (multi-indicateurs) et multi-schémas d'optimisation.

La méthode de distance de solution supérieure et inférieure
, également connue sous le nom de méthode de solution idéale, est une méthode d'évaluation multi-indices efficace. Cette méthode construit la solution idéale positive et la solution idéale négative du problème d'évaluation, c'est-à-dire les valeurs maximale et minimale de chaque indice, et calcule la proximité relative de chaque schéma avec le schéma idéal, c'est-à-dire la distance proche de la solution idéale positive et loin de la solution idéale négative degré, pour trier les schémas, de manière à sélectionner le schéma optimal.

La méthode d'évaluation globale floue
est une méthode d'évaluation globale basée sur les mathématiques floues. La méthode d'évaluation globale convertit l'évaluation qualitative en évaluation quantitative selon la théorie du degré d'appartenance des mathématiques floues, c'est-à-dire qu'elle utilise les mathématiques floues pour faire une évaluation globale des choses ou des objets limités par divers facteurs. Il a les caractéristiques de résultats clairs et d'un système solide.Il peut bien résoudre des problèmes flous et difficiles à quantifier et convient à la résolution de divers problèmes non déterministes.

La méthode d'analyse relationnelle grise (méthode d'évaluation globale grise)
est la mesure de la corrélation entre les facteurs entre les deux systèmes, qui change avec le temps ou différents objets, et est appelée le degré de corrélation. Dans le processus de développement du système, si les tendances changeantes des deux facteurs sont cohérentes, c'est-à-dire que le degré de changement synchrone est élevé, on peut dire que le degré de corrélation entre les deux est élevé ; sinon, il est faible. Par conséquent, la méthode d'analyse relationnelle grise est basée sur le degré de similitude ou de dissemblance dans la tendance de développement entre les facteurs, c'est-à-dire le "degré relationnel gris", en tant que méthode pour mesurer le degré de corrélation entre les facteurs.

Méthode d'analyse de corrélation canonique : il s'agit d'une compréhension de la matrice de covariance croisée, et c'est une méthode d'analyse statistique multivariée qui utilise la relation de corrélation entre des paires de variables complètes pour refléter la corrélation globale entre deux groupes d'indicateurs. Son principe de base est le suivant : pour saisir la corrélation entre les deux groupes d'indicateurs dans leur ensemble, deux variables compréhensives représentatives U1 et V1 sont respectivement extraites des deux groupes de variables (respectivement, les variables linéaires de chaque variable dans les deux variables groupes Combinaison), en utilisant la corrélation entre ces deux variables globales pour refléter la corrélation globale entre les deux ensembles d'indicateurs.

L'analyse en composantes principales (réduction de la dimensionnalité)
est une méthode statistique. Par transformation orthogonale, un groupe de variables pouvant être corrélées est converti en un groupe de variables linéairement non corrélées, et le groupe de variables converti est appelé la composante principale. Lorsque vous utilisez des méthodes d'analyse statistique pour étudier des sujets à plusieurs variables, un trop grand nombre de variables augmentera la complexité du sujet. Les gens espèrent naturellement que le nombre de variables sera moindre et que plus d'informations seront obtenues. Dans de nombreux cas, il existe une certaine corrélation entre les variables.Lorsqu'il existe une certaine corrélation entre deux variables, on peut expliquer que les deux variables reflètent un certain chevauchement dans les informations de ce sujet. L'analyse en composantes principales consiste à supprimer les variables redondantes (variables étroitement liées) pour toutes les variables proposées à l'origine et à établir le moins de nouvelles variables possible, de sorte que ces nouvelles variables ne soient pas pertinentes par paires et que ces nouvelles variables reflètent l'aspect informationnel du sujet. doivent être conservés aussi originaux que possible. Essayer de recombiner les variables d'origine dans un nouveau groupe de plusieurs variables compréhensives qui ne sont pas pertinentes les unes par rapport aux autres, et en même temps, selon les besoins réels, quelques variables moins compréhensives peuvent être retirées pour refléter autant d'informations que possible sur le variables d'origine.La méthode statistique est appelée analyse en composantes principales ou analyse en composantes principales est également une méthode utilisée en mathématiques pour la réduction de la dimensionnalité.

Analyse factorielle (réduction de la dimensionnalité)
L'analyse factorielle fait référence à l'étude de techniques statistiques permettant d'extraire des facteurs communs à partir de groupes de variables. Il a été proposé pour la première fois par le psychologue britannique CE Spearman. Il a constaté qu'il existe une certaine corrélation entre les scores des élèves dans diverses matières.Les élèves ayant de bons scores dans une matière ont souvent de meilleurs scores dans d'autres matières, il se demande donc s'il existe des facteurs communs potentiels, ou certaines conditions générales d'intelligence. rendement scolaire des élèves. L'analyse factorielle peut trouver des facteurs représentatifs cachés parmi de nombreuses variables. Le classement de variables de même nature en un facteur permet de réduire le nombre de variables et de tester l'hypothèse de la relation entre variables.

La méthode d'évaluation complète du réseau de neurones BP
est un réseau de rétroaction multicouche formé selon l'algorithme de rétropropagation d'erreur, et c'est l'un des modèles de réseau de neurones les plus largement utilisés. Le réseau BP peut apprendre et stocker un grand nombre de relations de mappage de modèles d'entrée-sortie sans révéler à l'avance les équations mathématiques décrivant la relation de mappage. Sa règle d'apprentissage consiste à utiliser la méthode de descente la plus raide pour ajuster en continu les poids et les seuils du réseau par rétropropagation afin de minimiser la somme des erreurs au carré du réseau. La structure topologique du modèle de réseau neuronal BP comprend une couche d'entrée (entrée), une couche cachée (couche masquée) et une couche de sortie (couche de sortie).

Je suppose que tu aimes

Origine blog.csdn.net/dc_sinor/article/details/131831837
conseillé
Classement