"Análisis numérico" - Sistema de 2 ecuaciones

0. Antecedentes

En el capítulo anterior, estudiamos métodos para resolver ecuaciones univariadas. En este capítulo se estudiará la solución simultánea de muchas ecuaciones multivariadas, prestando mucha atención a problemas con tantas variables desconocidas como ecuaciones.

La eliminación gaussiana es una herramienta útil para resolver ecuaciones lineales de tamaño apropiado.

1. Eliminación gaussiana

La eliminación gaussiana puede resolver eficientemente n ecuaciones con n incógnitas.

La eliminación gaussiana se compone principalmente de dos partes desiguales: el proceso de eliminación con un costo computacional relativamente grande y el proceso de sustitución hacia atrás con un costo computacional relativamente pequeño.

El cálculo de eliminación de n ecuaciones yn incógnitas se puede \frac{2}{3}n^3+\frac{1}{2}n^2-\frac{7}{6}ncompletar después de una operación. 

2. Descomposición LU

La descomposición LU es la forma matricial de la eliminación gaussiana, que implica escribir la matriz de coeficientes A como el producto de la matriz triangular inferior L y la matriz triangular superior U. Si el problema resuelto por eliminación gaussiana es Ax=b, luego de la descomposición LU, el problema se transforma en LUx=b.

Entre ellos, la matriz U es la matriz triangular superior obtenida mediante el proceso de eliminación gaussiano tradicional, y la matriz L correspondiente se obtiene colocando 1 en la diagonal principal y luego colocando los multiplicadores en la matriz triangular inferior de acuerdo con sus posiciones específicas durante la eliminación.

¿Cómo utilizar la descomposición LU para volver al paso de generación?

Ax=b ---> LUx=b --->c=Ux Lc=b buscar c---> Ux=c encontrar x

Dado que tanto L como U son matrices triangulares, la operación de estos dos pasos es muy sencilla.

¿Por qué se produce la descomposición LU?

Generalmente, el problema de resolver Ax = b que encontramos es a menudo un conjunto de problemas diferentes. Generalmente la matriz A es constante, pero b cambia con frecuencia. Por lo tanto, b se aísla del cálculo que incluye A mediante la descomposición LU y solo un proceso de eliminación. se realiza puede resolver tales problemas.

Sin embargo, LU no puede descomponer todas las matrices; necesitamos hacer algo de trabajo antes de la descomposición de LU: algunos pivotes.

3.Error

Norma infinita 

x=(x_1,x_2,...,x_n)La norma infinita o norma máxima del vector es {\izquierda |  \izquierda |  x\derecha |  \right |}_\infty=max \left |  x_i \ derecha |, es decir, el valor absoluto máximo entre todos los elementos de x.

Sea x_ala solución aproximada del sistema de ecuaciones lineales hacha=by el resto sea un vector r=b-Ax_a. El error hacia atrás es la norma del resto {\izquierda \|  b-Ax_a \right \|}_\infty, el error hacia adelante es {\izquierda \|  x-x_a \right \|}_\infty, el error relativo hacia atrás es \frac{​{\izquierda \|  r \right \|}_\infty }{​{\left \|  b \right \|}_\infty }y el error relativo hacia adelante es\frac{​{\izquierda \|  x-x_a \right \|}_\infty }{​{\left \|  x \right \|}_\infty }

El factor de amplificación del error es:

\frac{\frac{​{\izquierda \|  x -x_a \right \|}_\infty }{​{\left \|  x \right \|}_\infty }}{\frac{​{\left \|  r \right \|}_\infty }{​{\left \|  b \right \|}_\infty }}

número de condición de la matriz

El número de condición cond(A) de la matriz A es el máximo factor de amplificación de error posible para todos los vectores derechos b al resolver Ax=b

norma matricial

La norma matricial de la matriz A nxn es {\izquierda \|  A \right \|}_\infty= el valor máximo de la suma de los valores absolutos de los elementos en cada fila, es decir, se suma el valor absoluto de los elementos en cada fila, y el valor máximo de los La suma de n filas se utiliza como norma de la matriz A.

Sorprendentemente, existe una fórmula compacta para el número de condición para matrices cuadradas:

cond(A)=\izquierda \|  A \right \|\left \|  A^{-1} \derecha \|

1-norma de matriz

La norma 1 de la matriz de una matriz A nxn es {\izquierda \|  Un \derecho \|}_1= suma absoluta máxima de la columna, es decir, el valor máximo de la norma 1 de los vectores de la columna.

 4.PA=descomposición LU

El método de eliminación gaussiano que consideramos anteriormente se denomina problema "ingenuo" debido a dos obstáculos graves: el pivote 0 (que hace imposible la eliminación) y el problema del ahogamiento (multiplicadores demasiado grandes hacen que se suprima la ecuación inferior). Para una matriz no singular, ambos pueden evitarse mejorando el algoritmo. La estrategia mejorada se centra en intercambiar las filas de la matriz de coeficientes, un método llamado pivote parcial.

pivote parcial

La idea del pivote parcial es encontrar el elemento más grande en la primera columna antes de cada paso de eliminación e intercambiar su fila correspondiente con la fila pivote, es decir, PA = LU. Entre ellos, P es la matriz de permutación acumulada final para la selección de pivote en cada paso.

Usando el método de pivote parcial, el problema de Ax=b se transforma aún más en PAx=Pb -->LUx=Pb

Luego obtenga c de Lc=Pb y obtenga x de Ux=c.

La ventaja del método de pivote gaussiano es que tiene un proceso de selección del pivote, que puede evitar la situación en la que el programa selecciona el elemento principal como 0 al realizar la operación de eliminación, y también reduce el error de redondeo del cálculo, mejorando así el programa generalización y precisión de los resultados.

5. Enfoque iterativo

El método gaussiano es un método sencillo para resolver sistemas de ecuaciones lineales. Teóricamente, los métodos directos pueden obtener soluciones exactas en pasos finitos.

Los métodos iterativos también se pueden utilizar para resolver sistemas lineales de ecuaciones. Similar a la iteración de punto fijo, el método comienza con una estimación inicial, luego refina la estimación en cada paso y finalmente converge al vector de solución.

método jacobiano 

El método jacobiano es una forma de iteración de punto fijo en sistemas de ecuaciones.

El método jacobiano procede de la manera estándar de la siguiente manera:

Resuelva la i-ésima ecuación para obtener la i-ésima cantidad desconocida;

Luego use la iteración de punto fijo, comenzando desde la estimación inicial, para iterar.

Pero el método jacobiano no siempre consigue resolverlo, y conocer las condiciones en las que funciona ayuda a nuestra comprensión.

Primero, comprendamos el concepto de matriz estrictamente diagonalmente dominante.

Definición de matriz estrictamente diagonalmente dominante

El elemento diagonal es dominante en la fila correspondiente y su valor correspondiente (valor absoluto) es mayor en número que la suma de los demás elementos de la fila.

Propiedades de matrices estrictamente diagonalmente dominantes

Si la matriz A de nxn es estrictamente diagonalmente dominante, entonces A:

1) es una matriz no singular;

2) Para todos los vectores b y estimaciones iniciales, aplicar el método jacobiano a Ax=b converge a una solución única.

Algoritmo concreto jacobiano

La matriz A se puede escribir como A=L+D+U, y la ecuación de solución se puede escribir como Lx+Dx+Ux=b, que se puede transformar aún más enx=D^{-1}(b-(L+U)x_k)

Entonces el proceso iterativo jacobiano es:

x_0= vector inicial;

x_{k+1}=D^{-1}(b-(L+U)x_k)

Método de Gauss-Seidel

La diferencia entre el método Gauss-Seidel y el método jacobiano es que el valor de la variable desconocida actualizada por el método Gauss-Seidel siempre se actualiza en cada paso, incluso si la actualización ocurre en el paso actual.

El proceso iterativo del método Gauss-Seidel es:

x_0= vector inicial;

x_{k+1}=D^{-1}(b-Ux_k-Ux_{k+1})

Método de sobrerelajación secuencial (SOR)

El método de sobrerelajación continua utiliza la dirección de solución del método Gauss-Seidel y utiliza la sobrerelajación para acelerar la convergencia.

SOR puede verse como multiplicar Ax=b por w y reorganizar la ecuación:

(wL+wD+wU)x=wb

(wL+D)x=wb-wUx+(1-w)Dx

x=(wL+D)^{-1}[(1-w)Dx-wUx]+w(wL+D)^{-1}b

Supongo que te gusta

Origin blog.csdn.net/weixin_44307969/article/details/128049556
Recomendado
Clasificación