Métodos Directos e Indirectos para la Resolución de Sistemas de Ecuaciones

Clasificado en Matemáticas

Escrito el en español con un tamaño de 3,09 KB

Métodos para la Resolución de Sistemas de Ecuaciones

Métodos Directos

Método de Eliminación de Gauss

Consiste en convertir la matriz A en una equivalente, haciendo ceros por debajo de la diagonal principal de A. Así, la primera ecuación lo será en n variables, la segunda en n-1 hasta llegar a la última, que lo será en 1 variable. Una vez hecho ceros, se despejan los valores de las variables, comenzando por la última y sustituyendo hasta llegar a la primera, con lo que habrá quedado resuelto el sistema.

Método de Gauss-Jordan

Consiste en obtener una matriz diagonal en lugar de una diagonal inferior. Se obtienen directamente las variables en el sistema resultante, sin necesidad de efectuar sustituciones. Este ahorro de cálculo en el paso final se consigue a costa de aumentar (ligeramente) la complejidad del algoritmo en el paso intermedio de hacer ceros, ya que también los vamos a hacer con los elementos de la matriz por encima de la diagonal principal.

Métodos Indirectos

Método de Jacobi

Consiste en convertir el sistema original en este otro (idéntico a la fórmula vista en el método de Gauss). Dado que no tenemos la solución exacta, suponemos unos valores iniciales. Obtenemos una serie de valores a partir de estos primeros, aplicando reiteradamente las fórmulas, hasta un máximo de iteraciones o hasta que el valor obtenido en un paso sea igual, salvo un epsilon muy pequeño, al obtenido en el paso inmediatamente anterior.

La codificación del método utiliza un procedimiento SOLUCIÓN (A, n, X) sucesivamente, con un vector inicial arbitrario, por ejemplo: X = [0, 0, 0, ..., 0], donde en cada paso "k" obtendremos un nuevo vector X más cercano a la solución exacta.

Se puede demostrar que el método converge mientras la matriz sea diagonalmente dominante, es decir, en todas las filas el elemento de la diagonal principal es, en valor absoluto, mayor que la suma del resto de los valores absolutos, excepto él. Se puede comprender si observamos que, si se cumple esta condición, en la fórmula de arriba el término del sumatorio es pequeño comparado con el término independiente; por tanto, dicho término es dominante en las iteraciones.

Método de Gauss-Seidel

En el método de Jacobi, cada vector de la sucesión se calcula simultáneamente. Una posible aceleración de la convergencia consiste en ir utilizando los valores de las x que vamos obteniendo para el cálculo de las siguientes componentes, antes de acabar la iteración. En vez de utilizar todos los valores de X0 en la primera iteración, los utilizamos para la primera componente y el valor obtenido se usa en el siguiente cálculo de la iteración actual. Lo mismo se hace con el resto de las componentes.

Este método converge si y solo si lo hace el de Jacobi. Los dos métodos que acabamos de explicar son de aplicación en el caso de que tengamos matrices de considerables dimensiones o que posean muchos ceros (por ejemplo, matrices diagonales por cajas con "n" muy grande).

Entradas relacionadas: