Métodos Numéricos. 50 45 40 35 30 25 20 15 10 5 0 -2 0
0
- 23 0
-2 0
-1 0
0
10
20
30
Apuntes de clase. Marco Antonio Pinto Ramos.
Métodos Numéricos 1. INTRODUCCIÓN Y PRECISIÓN EN LOS CÁLCULOS NUMÉRICOS 1.1 Introducción a los métodos numéricos 1.2 Cifras Significativas 1.2.1 Exactitud y precisión 1.2.2 Errores 1.3 Representación de números en la computadora 1.3.1 Sistemas numéricos 1.3.1.1 Sistema binario 1.3.1.2 Sistema octal 1.3.1.3 Sistema hexadecimal 1.3.1.4 Sistema decimal 1.3.2 Representación entera 1.3.3 Representación de punto flotante 1.4 Algoritmos 1.4.1 Estabilidad 1.4.2 Convergencia 1.4.3 Recursividad 1.5 Series y sucesiones 1.5.1 Series 1.5.1.1 Series geométricas 1.5.1.2 Series aritméticas 1.5.1.3 Series de Taylor 1.5.1.4 Series de Fourier 1.5.1.5 Series de Binomio 1.5.2 Sucesiones 1.5.2.1 Sucesiones geométricas 1.5.2.2 Sucesiones aritméticas 1.6 Número de condición 2. RAÍCES DE ECUACIONES 2.1 Aproximación gráfica 2.2 Método de Bisección 2.3 Método de Falsa Posición 2.4 Método de Newton Raphson 2.5 Método de la Secante 2.6 Raíces múltiples 2.6.1 Método de Newton Raphson modificado para raíces múltiples 2.6.2 Método de Müller
3. SISTEMAS DE ECUACIONES LINEALES 3.1 Matrices 3.2 Regla de Cramer 3.3 Eliminación de Gauss Simple 3.4 Gauss Jordan 3.5 Normas de Vector y Matrices 3.6 Descomposición LU 3.7 Descomposición de Crout 3.8 Descomposición de Cholesky 4. APROXIMACIÓN FUNCIONAL E INTERPOLACIÓN 4.1 Ajuste de curvas 4.2 Ajuste por Mínimos Cuadrados 4.3 Interpolación de polinomios con Diferencias Divididas de Newton 4.4 Interpolación con polinomios Lagrange 4.5 Interpolación Segmentaría 5. INTEGRACIÓN Y DIFERENCIACIÓN NUMÉRICA 5.1 Métodos de de Newton-Cotes 5.1.1 Método del Trapecio 5.1.2 Método de Simpson un tercio 5.1.3 Método de Simpson tres octavos 5.2 Cuadratura de Gauss 5.3 Diferenciación Numérica 6. SOLUCIÓN NUMÉRICA DE ECUACIONES DIFERENCIALES ORDINARIAS 6.1 Método de Euler 6.2 Método de Runge-Kutta 6.3 Sistemas de Ecuaciones 6.4 Métodos de Runge-Kutta
BIBLIOGRAFÍA 1. ANÁLISIS NUMÉRICO* Richar Richardd L. L. Burd Burden/ en/ J. Dougl Douglas as Fai Faires res Grupo Grupo Edito Editoria riall Iber Iberoam oaméri érica ca 2. MÉTODOS NUMÉRICOS PARA INGENIEROS* Chapra, Canale Ed. McGraw Hill, México 3. MÉTODOS NUMÉRICOS NUMÉRICOS / Aplicados a la Ingeniería Antonio Nieves/Federico Nieves/Federico C. Domínguez Ed. CECSA * Disponibles en Biblioteca Central UABC
Métodos Numéricos 1. INTRODUCCIÓN Y PRECISIÓN EN LOS CÁLCULOS NUMÉRICOS 1.1 Introducción a los métodos numéricos 1.2 Cifras Significativas 1.2.1 Exactitud y precisión 1.2.2 Errores 1.3 Representación de números en la computadora 1.3.1 Sistemas numéricos 1.3.1.1 Sistema binario 1.3.1.2 Sistema octal 1.3.1.3 Sistema hexadecimal 1.3.1.4 Sistema decimal 1.3.2 Representación entera 1.3.3 Representación de punto flotante 1.4 Algoritmos 1.4.1 Estabilidad 1.4.2 Convergencia 1.4.3 Recursividad 1.5 Series y sucesiones 1.5.1 Series 1.5.1.1 Series geométricas 1.5.1.2 Series aritméticas 1.5.1.3 Series de Taylor 1.5.1.4 Series de Fourier 1.5.1.5 Series de Binomio 1.5.2 Sucesiones 1.5.2.1 Sucesiones geométricas 1.5.2.2 Sucesiones aritméticas 1.6 Número de condición 2. RAÍCES DE ECUACIONES 2.1 Aproximación gráfica 2.2 Método de Bisección 2.3 Método de Falsa Posición 2.4 Método de Newton Raphson 2.5 Método de la Secante 2.6 Raíces múltiples 2.6.1 Método de Newton Raphson modificado para raíces múltiples 2.6.2 Método de Müller
3. SISTEMAS DE ECUACIONES LINEALES 3.1 Matrices 3.2 Regla de Cramer 3.3 Eliminación de Gauss Simple 3.4 Gauss Jordan 3.5 Normas de Vector y Matrices 3.6 Descomposición LU 3.7 Descomposición de Crout 3.8 Descomposición de Cholesky 4. APROXIMACIÓN FUNCIONAL E INTERPOLACIÓN 4.1 Ajuste de curvas 4.2 Ajuste por Mínimos Cuadrados 4.3 Interpolación de polinomios con Diferencias Divididas de Newton 4.4 Interpolación con polinomios Lagrange 4.5 Interpolación Segmentaría 5. INTEGRACIÓN Y DIFERENCIACIÓN NUMÉRICA 5.1 Métodos de de Newton-Cotes 5.1.1 Método del Trapecio 5.1.2 Método de Simpson un tercio 5.1.3 Método de Simpson tres octavos 5.2 Cuadratura de Gauss 5.3 Diferenciación Numérica 6. SOLUCIÓN NUMÉRICA DE ECUACIONES DIFERENCIALES ORDINARIAS 6.1 Método de Euler 6.2 Método de Runge-Kutta 6.3 Sistemas de Ecuaciones 6.4 Métodos de Runge-Kutta
BIBLIOGRAFÍA 1. ANÁLISIS NUMÉRICO* Richar Richardd L. L. Burd Burden/ en/ J. Dougl Douglas as Fai Faires res Grupo Grupo Edito Editoria riall Iber Iberoam oaméri érica ca 2. MÉTODOS NUMÉRICOS PARA INGENIEROS* Chapra, Canale Ed. McGraw Hill, México 3. MÉTODOS NUMÉRICOS NUMÉRICOS / Aplicados a la Ingeniería Antonio Nieves/Federico Nieves/Federico C. Domínguez Ed. CECSA * Disponibles en Biblioteca Central UABC
Métodos Numéricos Unidad I........................................................................................................................... I........................................................................................................................... 1 Introducción................................................................................................................... Introducción. .................................................................................................................. 1 Aproximación numérica y teoría de errores ............ ........................ ........................ ........................ ........................ ................ .... 1
Errores inherentes........................................................................................................................ inherentes........................................................................................................................ 2 Errores de truncamiento............................................................................................................... truncamiento............................................................................................................... 2 Errores de redondeo..................................................................................................................... redondeo..................................................................................................................... 2 Error ............................................................................................................................................. ............................................................................................................................................. 3 Error relativo................................................................................................................................ relativo................................................................................................................................ 3 Error porcentual........................................................................................................................... porcentual........................................................................................................................... 3 Cifras Significativa Significativas s ....................................................................................................... Precisión y exactitud..................................................................................................... exactitud ..................................................................................................... Algoritmos...................................................................................................................... Algoritmos ...................................................................................................................... Estabilidad...................................................................................................................... Estabilidad ...................................................................................................................... Convergencia............ Convergencia ........................ ........................ ........................ ........................ ........................ ........................ ....................... ....................... .................. ...... Recursividad................................................................................................................... Recursividad ................................................................................................................... Series y sucesiones....................................................................................................... sucesiones ....................................................................................................... Criterio de convergencia y divergencia divergencia.. ......................................................................
4 4 4 5 5 6 6 7
Serie de Taylor ............................................................................................................................. ............................................................................................................................. 7 Serie binomial.............................................................................................................................. binomial.............................................................................................................................. 8 Serie de McLaurin........................................................................................................................ McLaurin........................................................................................................................88 Serie de Fourier ............................................................................................................................9 ............................................................................................................................ 9 Unidad II........................................................................................................................ II........................................................................................................................ 11 Solución numérica de ecuaciones de una sola variable............. variable. ........................ ....................... ................. ...... 11
Aproximación Grafica............................................................................................................... Grafica............................................................................................................... 11 Método de Bisección.................................................................................................................. Bisección..................................................................................................................12 12 Método de Falsa Posición.......................................................................................................... Posición.......................................................................................................... 14 Método de Newton-Raphson..................................................................................................... Newton-Raphson..................................................................................................... 16 Método de la secante................................................................................................................. secante.................................................................................................................18 18 Raíces Múltiples......................................................................................................................... Múltiples.........................................................................................................................20 20 Método de Newton-Raphson modificado para raíces múltiples................................................ múltiples................................................21 21 Método de Müller ...................................................................................................................... ...................................................................................................................... 23 Unidad III ........... ...................... ....................... ........................ ........................ ........................ ........................ ........................ ........................ ........................ ............ 28 Solución numérica de sistemas de ecuaciones ecuaciones........................................................ ........................................................ 28
Determinante de una matriz....................................................................................................... matriz....................................................................................................... 31 Regla de Cramer ........................................................................................................................ ........................................................................................................................ 32 Eliminación de Gauss o Gaussiana Simple................................................................................ Simple................................................................................34 34 Inversión de matrices................................................................................................................. matrices................................................................................................................. 38 Descomposición LU................................................................................................................... LU...................................................................................................................39 39 Descomposición de CROUT...................................................................................................... CROUT......................................................................................................43 43 Descomposición de Cholesky.................................................................................................... Cholesky.................................................................................................... 47 Método de Jacobi....................................................................................................................... Jacobi....................................................................................................................... 49 Método de Gauss-Seidel............................................................................................................ Gauss-Seidel............................................................................................................ 51 Normas de Vector y Matrices.................................................................................................... Matrices.................................................................................................... 53 Mínimos Cuadrados................................................................................................................... Cuadrados................................................................................................................... 56 Unidad IV....................................................................................................................... IV....................................................................................................................... 57 Aproximación funcional e interpolación. interpolación.................................................................... ................................................................... 57
Repaso de estadística................................................................................................................. estadística................................................................................................................. 57 I
Aproximación por mínimos cuadrados en una recta..................................................................58 Interpolación lineal.................................................................................................................... 60 Interpolación cuadrática.............................................................................................................61 Interpolación de Polinomios de Newton....................................................................................63 Interpolación de polinomios de Lagrange..................................................................................65 Trazador Cúbico.........................................................................................................................69 Integración y diferenciación numérica....................................................................... 72
Fórmulas o ecuaciones de Newton-Cotes.................................................................................. 72 Integración por el método trapezoidal....................................................................................... 73 Aplicación múltiple de la regla trapezoidal............................................................................... 75 Regla de Simpson . ................................................................................................................... 78 Unidad VI....................................................................................................................... 85 Solución numérica de ecuaciones diferenciales...................................................... 85
Método de Euler .........................................................................................................................86 Análisis de error para el método de Euler .................................................................................88 Mejoras al método de Euler ....................................................................................................... 91 Método de Heun.........................................................................................................................91 Métodos de Runge-Kutta.............................................................................................
94
Métodos de Runge-Kutta de segundo orden..............................................................................94 Método de Heun de un solo corrector .......................................................................................95 Método de punto medio ............................................................................................................95 Método de Ralston ....................................................................................................................96 Métodos de Runge-Kutta de tercer orden.................................................................................. 96 Métodos de Runge-Kutta de cuarto orden................................................................................. 97 Método de Runge-Kutta de orden superior................................................................................98 Ecuaciones diferenciales ordinarias de orden superior ............................................................100
II
Métodos Numéricos Unidad I. Introducción.
En el campo de la ingeniería y ciencias, existen infinidad de fenómenos que requieren representarse mediante modelos matemáticos. Desafortunadamente, la gran mayoría de estos modelos no tiene una solución exacta ó no es fácil encontrarla. Es estos casos es en donde los métodos numéricos proporcionan una solución aproximada al problema original. Un método numérico es aquel que obtiene números que se aproximan a los que se obtendrían aplicando la solución analítica de un problema. Los métodos numéricos son herramientas extremadamente poderosas para la solución de problemas. Son capaces de manejar sistemas de ecuaciones grandes, no linealidades geométricas complicadas que son comunes en la practica de la ingeniería y que, a menudo, son imposibles de resolver analíticamente. Aproximación numérica y teoría de errores
Debemos conformarnos siempre, en la práctica de la ingeniería y de las ciencias, con una solución aproximada a un problema por las siguientes razones: Los modelos matemáticos son aproximados esto es, simplificaciones al problema real. No se toman en cuenta todos los factores que afectan a un fenómeno. Por ejemplo, en el caso del tiro parabólico, se suele despreciar la resistencia del aire, sin embargo, esta puede ser importante. Los modelos matemáticos requieren de parámetros, los cuales la mayoría de las veces provienen de mediciones experimentales y estas, solo tienen una precisión limitada, que depende del instrumento de medición. Por ejemplo la constante de los gases ideales. También pueden provenir de cálculos y estos tienen una precisión limitada que depende tanto del método como del instrumento de cálculo que se utilicen. Por ejemplo π . Los modelos matemáticos resultantes son imposibles de resolver por métodos analíticos y se debe de aproximar la solución numéricamente. Por ejemplo una ecuación de quinto grado.
1
Por lo anterior, humildemente tenemos que aceptar que siempre se tendrán presentes errores, estos pueden clasificarse en: Errores inherentes. Errores de truncamiento. Errores de redondeo. Errores inherentes
Los errores inherentes son aquellos que tienen los datos de entrada de un problema, y son debidos principalmente a que se obtienen experimentalmente, debiéndose tanto al instrumento de medición, como a las condiciones de realización del experimento. Por ejemplo, sí el experimento es a temperatura constante y no se logra esto mas que en forma aproximada. También pueden deberse a que se obtengan de cálculos previos. Por ejemplo el valor calculado es el de un número irracional como π ó 2. Errores de truncamiento
Los errores de truncamiento se originan por el hecho de aproximar la solución analítica de un problema, por medio de un método numérico. Por ejemplo al evaluar la función exponencial por medio de la serie de Taylor, se tiene que calcular el valor de la siguiente serie infinita: x
e
= 1 + x +
x 2 2!
+
x 3 3!
+ +
x N N !
=
∞
∑
N = 0
x N N !
Ante la imposibilidad de tomar todos los términos de la serie, se requiere truncar después de cierto número de términos. Esto nos introduce ciertamente un error, que es el error de truncamiento. Este es independiente de la manera de realizar los cálculos. Solo depende del método numérico empleado. Errores de redondeo
Los errores de redondeo, se originan al realizar los cálculos que todo método numérico o analítico requieren y son debidos a la imposibilidad de tomar todas las cifras que resultan de operaciones aritméticas como los productos y los cocientes, teniendo que retener en cada operación el número de cifras que permita el instrumento
2
de cálculo que se este utilizando. Por ejemplo al calcular el valor de
1 3
, tenemos que
conformarnos solo con la mayor cantidad de cifras 3, que maneje nuestro instrumento de calculo. Los errores anteriores también suelen denominarse como las fuentes de error. La magnitud del error generada por alguna o todas las fuentes de error mencionadas anteriormente, se puede cuantificar con ayuda de los siguientes parámetros: Error. Error relativo. Error porcentual. Error
El error se define como la diferencia entre el valor real V r y una aproximación a este valor V a : e = V r − V a
Error relativo
El error relativo se define como el cociente del error entre el valor real V r (sí V r ≠ 0 ): er =
e V r
=
V r − V a V r
En ciertos métodos numéricos se utilizan esquemas iterativos para calcular resultados. En tales esquemas, se hace una aproximación en base a la aproximación anterior. Este proceso se repite varias veces, o de forma iterativa, para calcular sucesivamente más y mejores aproximaciones. En tales casos, el error a menudo se calcula como la diferencia entre aproximación previa y la actual por lo tanto, el error relativo porcentual o error porcentual esta dado por: Error porcentual
El error porcentual es simplemente el error relativo expresado en por ciento (%). e p
=
V r − V a V r
*100%
3
En 1966 Scarberough demostró que si el siguiente criterio se cumple puede tenerse la seguridad de que el resultado es correcto en al menos n cifras significativas. Es = 0.5 × 10 2− n
Cifras Significativas
El concepto de cifras significativas se ha desarrollado para designar formalmente la confiabilidad de un valor numérico. El número de cifras significativas es el número de dígitos que se puede usar con plena confianza. Por ejemplo podemos calcular un número irracional con varias cifras, pero de ellas no todas, sobre todo las últimas pueden tomarse con plena confianza de que son correctas. Por otro lado, los ceros no siempre son cifras significativas ya que pueden usarse solo para ubicar al punto decimal. Por ejemplo los siguientes números tienen todos 4 cifras significativas: 0.00001985, 0.0001985, 0.001985, 1985, 19.85.Para asegurar que un cero nos represente una cifra significativa, es común emplear la notación científica. Por ejemplo los siguientes números tienen 3, 4 y 5 cifras significativas: 4.53 × 10 − 5 , 4.530 × 10 − 5 y 4.5300 × 10− 5 . También se suele poner explícitamente los ceros. Los siguientes números tienen 5 cifras significativas: 19850, 0.019850, 19.850. Cifras significativas: Son aquellas que pueden usarse en forma confiable. Precisión y exactitud
Los errores asociados con los cálculos y mediciones se pueden caracterizar observando su precisión y exactitud . La mayoría de la gente piensa que estos términos son sinónimos, pero no es así. La precisión se refiere al número de cifras significativas que representan una cantidad. La exactitud se refiere al grado de aproximación que se tiene de un número o de una medida al valor verdadero que se supone representa, es decir, que tan cerca estamos del valor buscado. Por ejemplo, sí leemos la velocidad del velocímetro de un auto, esta tiene una precisión de 3 cifras significativas y una exactitud de ± 5 Kmh. Algoritmos
Algoritmo: Secuencia de pasos lógicos necesarios para llevar a cabo una tarea especifica, generalmente los algoritmos se describen mediante un pseudocódigo. Y pueden ser estables o inestables.
4
Ejemplo Algoritmo hecho en pseudocódigo del promedio de n números. 1.- Pedir datos 2.- Contar datos: n =números de datos. 3.- Sumar los datos: suma = suma + dato (i ) 4.- Dividir suma entre n : prom = suma / n 5.- Imprimir el prom Estabilidad
Algoritmos estables: Son aquellos en los que los cambios pequeños en los datos de entrada generan cambios pequeños al final o a la salida. Algoritmos inestables: Son aquellos en los que los cambios pequeños en la entrada producen grandes cambios en la salida. Por ejemplo sí en es un error en alguna etapa de un proceso y k es una constante independiente de n el número de etapa, entonces sí el error después de n operaciones se puede representar por f (n) = knε , se dice que el crecimiento del error es lineal. Sí en cambio el error se representa por f (n) = k nε para k > 1 , el crecimiento del error se dice que es exponencial. El crecimiento del error lineal es por lo general inevitable, y cuando k y n son pequeños, los resultados son aceptables. El crecimiento del error exponencial debe ser evitado, ya que el término k n será grande, aun para valores relativamente pequeños de n.
Por lo tanto sí el crecimiento del error es lineal el método es estable y sí es
exponencial es inestable. Convergencia
Velocidad de convergencia (rapidez o razón de convergencia): Es el número de iteraciones que requiere un cálculo o algoritmo para converger o aproximarse a un valor. Es decir la convergencia se refiere al hecho de que los métodos numéricos obtienen n términos de una sucesión de valores. Comenzamos con un valor inicial que sea una
5
aproximación de la solución de un problema x0 Aplicando un método numérico se obtien obtiene e otra aproxi aproximac mación ión x1 . Se repit repite e el proced procedim imie ient nto o para para obte obtener ner x2 y así sucesivamente, es decir, se generar la sucesión x0 , x1 ,, xn (todos los términos son aproximaciones a la solución del problema). Sí la sucesión obtenida al cabo de n iteraciones tiende a un límite se dice que el método es convergente o divergente en caso contrario. Recursividad
Formula recursiva: recursiva: Relaciona términos sucesivos de una sucesión particular de números, funciones o polinomios, para proporcionar medios para calcular cantidades sucesivas en términos de las anteriores. Series y sucesiones
(Infinita)
Serie : 2,4,6,8,
geométrica aritmética
Series y Sucesiones
(Finita)
Sucesión : 2,4,6,8,10.
Sucesión aritmética aritmética a + (a + d ) + (a + 2d ) + + (a + ( N − 1)d ) =
1 2
n(a + l )
donde: l = a + ( N − 1)d y representa el ultimo termino de la sucesión. Sucesión geométrica a + ax + ax
2
+
ax
3
+ +
N − 1
ax
=
a(1 − x N ) 1 − x
se dice que una sucesión es creciente si: a n − 1 ≤ an
∀n
decreciente si: a n − 1 ≥ an
∀n
6
Ejemplos n
∑
ax − n (Geométrica decreciente)
n= 1 0
∑
n=
ax n
(Geométrica creciente)
−∞
0
∑ (a + nb) (Aritmética creciente)
n=
−∞
Criterio de convergencia y divergencia. divergencia. ∞
Sea
∑
una serie infinita dada y sea { S n } la sucesión de sumas parciales que
n= 1
S n existe y es igual a S entonces definen esta serie infinita. Entonces si el Lim entonces se dice n→ ∞
que la serie converge y que S es la suma infinita dada. S n , entonces se dice que la serie diverge ó no converge y S no tiene Si coexiste al Lim n→ ∞
valor. Una serie infinita es convergente si y solo si, la secuencia correspondiente es convergente. Serie de Taylor
La serie de Taylor permite predecir o calcular el valor de una función en un punto en términos del valor de la función y sus derivadas en otro punto. Esto quiere decir que cualquier función suave puede ser aproximada mediante un polinomio. f ( x) = f (a) + f ' (a)( x − a) +
f ' ' (a)( x − a) 2 2!
+
f ' ' ' (a)( x − a) 3 3!
+ +
f n (a)( x − a) n n!
+ Rn
Donde Rn es el término residual Rn
=
f n − 1 (ξ )h n + 1 (n + 1)!
Algunas series típicas de Taylor son las siguientes ln(1 + x) = x − ln( x) =
x − 1 x
x 2 2
+
x 3 3
x 4
−
4 2
+ +
x n
Para − 1 < x ≤ 1
n 3
n
1 x − 1
1 x − 1
1 x − 1
x
x
x
+ 2
+ 3
+ + n
Para x ≥
1 2
7
n x − 1 1 x − 1 3 1 x − 1 5 1 x − 1 ln( x) = 2 + + + + n x + 1 x + 1 3 x + 1 5 x + 1
x 3
sen( x) = x − cos( x) = 1 − tan( x) = x +
2!
x 4 4!
1 x 3 2 3
sen ( x) = x + cos ( x) =
+
−
5!
−
x 7
+ +
7!
x 6 6!
1× 3 x 5 2× 4 5
+
x n
Para − ∞ < x < ∞
n!
Para − ∞ < x < ∞
+
1 3 2 5 17 7 x + x + x 3 15 315
−1
−1
+
3!
x 2
x 5
+
+
Para x <
1× 3 × 5 x 7 2× 4× 6 7
1 x 3 π π −1 − sen ( x) = − x + 2 2 2 3
senh( x) = x + cosh( x) = 1 +
x 3 3!
x 2 2!
x 5
+ +
5!
x 4 4!
+ +
Para x > 0
x 7 7!
x 6 6!
+
2× 4 5
2
Para x < 1
+
1× 3 x 5
π
+
1× 3 × 5 x 7 2× 4× 6 7
+ Para x < 1
+
Para − ∞ < x < ∞
+
Para − ∞ < x < ∞
Serie binomial (a + x)
n
=
a
n
+
na
n− 1
+
n(n − 1)a n− 2 2!
x
2
+
n(n − 1)( n − 2)a n− 3 3!
x3 +
Serie de McLaurin.
En matemáticas a menudo se pueden representar funciones mediante una serie infinita por ejemplo la función exponencial se puede utilizar usando x
e
= 1 + x +
x 2 2!
+
x 3 3!
+ +
x n n!
Que es conocida como expansión de serie de McLaurin, que es una modificación de la serie de Taylor para cuando a = 0
8
Serie de Fourier
Sea f ( x) una función compleja periódica con período 2π , evaluada en dominio de los números reales e integrable sobre el intervalo - π a π , es decir toda función periódica puede ser representada por una suma de senos y cósenos. a0
f ( x) =
2
∞
∑ [a
+
n
cos( n x) + bn s e n(n x) ]
n= 1
donde: an
=
1
π
π
∫ f ( x) cos(n x)dx
bn
π
1
=
∫ f ( x) s e n(n x)dx
π
− π
− π
Cuadrada
Triangular
f ( x )
−
− π
2π
f ( x )
π
0
2π
− π
− 2π
f ( x) =
4 Sen( x)
π
1
+
Sen(3 x) 3
+
Sen(5 x) 5
+
f ( x) =
π
4 Cos ( x)
−
2
0
π
Diente de sierra
+
Cos (3 x )
2π
− π
Sen( x) − 1
f ( x) = 2
0
Cos (5 x)
+
1 32 52 Senoidal Rectificada
f ( x )
−
2π
π
+
f ( x )
π
2π
Sen(2 x) Sen(3x) + − 2 3
− π
− 2π
f ( x) =
1
1 sen ( x) π 2 2 Cos(2 x)
−
0
π
2π
+
π
1× 3
+
Cos(4 x) 3× 5
+
Cos(6 x) 5× 7
+
9
Ejemplo S e r ie d e F o u r i e r d e u n a s e ñ a l C u a d r a d a
1
) X (
0
F
− 2π
− π
π
0
2π
1
Cuadrada ( x ) = Cuadrada ( x ) =
4 Sen ( x)
X
π
1 4 Sen ( x )
π
Cuadrada( x) =
1
+
4 Sen( x)
π
1
Sen ( 3x )
+
3 Sen (3 x )
3
+
Sen (5 x)
5
Ejemplo de la obtención de la serie de Fourier de una onda cuadrada f ( x) = 1
a0
=
π ∫
an
=
1
an
=
bn
=
bn
=
bn
=
π
− π 0
∫ − π −
π 1
π
∫
− π
π 1
π ∫
0
− π
cos(n x) dx +
- dx +
1
π
π
∫
f ( x) s e n(n x) dx = 0
π n
1
0
1
π ∫
π
dx =
0
cos( n x) dx =
[− x − π 1
+ x π 0 ] =
0
π
[− sen(n x) − πn 1
0
[ − sen(n 0) + − sen(− π n ) + sen(n π ) − sen(n 0)] =
πn 1
f ( x) dx =
− 1 − π < x < 0 1 0 < x < π
cos(n x) − π
−
1
π n
1
π
0
∫ − π −
cos(n x)
π 0
s e n(n x) dx + 1
=
π n
1
π
[ cos(n 0) −
π
1
π
[ 0 − π + π − 0] =
0
+ sen(n x) π 0 ]
0
π
∫ s e n(n x) dx 0
cos(n π ) − cos( n π ) + cos(n 0) ]
1 1 2 [1 − cos(n π ) − cos(n π ) + 1] = [ 2 − 2 cos(n π )] = [1 − cos(n π )] π n π n π n
Como a0 = 0 , an = 0 y bn = f ( x) =
(1 − ∑ π n = 1 2
∞
2 [1 − cos(n π )] π n
cos( n π ) ) sen(n x) n
4
= π
tenemos que
∞
sen(n x) = 4 sen( x) + sen(3 x) + sen (5 x) + n π 1 3 5 n = 1,3, 5...
∑
10
Unidad II Solución numérica de ecuaciones de una sola variable.
Las soluciones de una ecuación f ( x) = 0 , se llaman ceros o raíces de f ( x) . En algunos casos las raíces pueden ser obtenidas
con métodos directos como por
ejemplo para una ecuación cuadrática se utiliza formula general. Aunque existen ecuaciones que no se pueden resolver directamente, por ejemplo una función tan simple tal como f ( x) = e − x − x . Para estos casos, la única alternativa es una técnica de solución numérica . Aproximación Grafica
Un método simple para obtener una aproximación a la raíz de la ecuación f ( x ) = 0 ,
consiste en graficar la función y observar en donde cruza al eje x .
Este punto representa el valor de x para el cual f ( x) = 0 proporciona una aproximación de la raíz de la función f ( x) . Ejemplo Usando la aproximación gráfica para obtener el coeficiente de razonamiento c , necesario para que un paracaidista de masa = 68.1 kg tenga una velocidad de 40 m / s después de una caída libre de 10 s , g = 9.81m / s 2 donde la función que representa este echo esta dada por: v(t ) =
(
gm − c t 1− e m c
)
En este caso se rescribe la función de tal manera que sea igualada a cero, lo cual queda: − gm 1 − e m − v c
f (c)
ct
f (c) =
c
f (c)
2 4 6 8 10 12 14 16 18 20 22
45.00718 34.19047 25.20892 17.71226 11.42152 6.11394 1.61112 -2.23026 -5.52565 -8.36838 -10.83416
35 30 25 20 15 10 Raiz Aproximada 14.75
5 0
4
6
8
10
12
14
16
18
c 20
22
-5 -1 0 -1 5
11
Método de Bisección
Este método consiste en encerrar una raíz entre un intervalo en el cuál la función debe cruzar al eje horizontal, e ir dividiendo el intervalo a la mitad hasta encontrar la mejor aproximación. 35 30 25 20
xr =
15
xi + xu 2
10 5 0 -5 -1 0
4
6
xi
8
10
12
xr xi xi
14
16
18
20
xr
xu xu
22
xu
-1 5
El algoritmo se describe como sigue: 1.- Elegir límites superior xu e inferior xi 2.- Obtener la nueva aproximación a la raíz xr =
xi + xu 2
3.- Si f ( xi ) f ( xr ) < 0 , entonces xi = xi y xu = xr Si no Si f ( xu ) f ( xr ) < 0 , entonces xi = xr y xu = xu 4.- Si f ( xu ) f ( xr ) = 0 , la raíz es igual a xr ; termina el calculo
12
Ejemplo: Resolviendo el ejemplo anterior utilizando el método de bisección con xi = 12 y xu
= 16 se tiene: − gm 1 − e m − v f (c) = c ct
i
xi
xu
xr
f ( xi )
f ( xu )
f ( xr )
er
1 2 3 4 5 6 7 8 9
12.0000000 14.0000000 14.0000000 14.5000000 14.7500000 14.7500000 14.7500000 14.7812500 14.7968750
16.0000000 16.0000000 15.0000000 15.0000000 15.0000000 14.8750000 14.8125000 14.8125000 14.8125000
14.0000000 15.0000000 14.5000000 14.7500000 14.8750000 14.8125000 14.7812500 14.7968750 14.8046875
6.1139431 1.6111164 1.6111164 0.5936984 0.0998300 0.0998300 0.0998300 0.0387748 0.0083032
-2.2302607 -2.2302607 -0.3844581 -0.3844581 -0.3844581 -0.1434972 -0.0221312 -0.0221312 -0.0221312
1.6111164 -0.3844581 0.5936984 0.0998300 -0.1434972 -0.0221312 0.0387748 0.0083032 -0.0069187
6.6666667 3.4482759 1.6949153 0.8403361 0.4219409 0.2114165 0.1055966 0.0527704
1a
iteración
xr =
xi + xu 2
=
12 + 16 2
iteración
2a
= 14
− gm 1 − e m − v = 6.1139431 f (12) = c ct
− gm 1 − e m − v = -2.2302607 f (16) = c ct
− gm 1 − e m − v = 1.6111164 f (14) = c
x r =
xi + xu 2
xr =
xi + xu 2
=
= 14.5
− gm 1 − e m − v = 1.6111164 f (14) = c ct
− gm 1 − e m − v = -0.3844581 f (15) = c ct
− gm 1 − e m − v = 0.5936984 f (14.5) = c ct
er =
14.5 − 15 *100 = 3.4482759 14.5
=
15
− gm 1 − e m − v = -2.2302607 f (16) = c ct
− gm 1 − e m − v = -0.3844581 c ct
f (15) =
4a 14 + 15 2
2 ct
er =
iteración
14 + 16
− gm 1 − e m − v = 1.6111164 f (14) = c
ct
3a
=
15 − 14 15
*100 = 6.6666667
iteración
xr =
xi + xu 2
=
14.5 + 15 2
= 14.75
− gm 1 − e m − v = 0.5936984 f (14.5) = c ct
− gm 1 − e m − v = -0.3844581 f (15) = c ct
− gm 1 − e m − v = 0.0998300 f (14.75) = c ct
er =
14.75 − 14.5 14.75
* 100 = 1.6949153
13
Método de Falsa Posición
Un defecto del método de bisección es que al dividir el intervalo de xi a xu en mitades, no se considera la magnitud de f ( xi ) y de f ( xu ) . Por ejemplo, si f ( xi ) esta más cercano a 0 que f ( xu ) , es lógico pensar que la raíz se encuentra más cerca de xi que de xu . El método de falsa posición aprovecha la visualización gráfica de unir f ( xi ) y f ( xu ) con una recta, donde la intersección intersección de esta recta con el eje x representa una mejor estimación a la raíz.
f ( xi )
0
xr = xu
−
f ( xu )( xi − xu ) f ( xi ) − f ( xu ) xr
xu
xi f ( xu )
De la gráfica se observan triángulos semejantes f ( xi ) xr − xi
=
f ( xu ) xr − xu
de la ecuación anterior despejamos xr y se obtiene: xr = xu
−
f ( xu )( xi − xu ) f ( xi ) − f ( xu )
El algoritmo es igual al del método de bisección, lo único que cambia es la ecuación para xr
14
Ejemplo Utilizando el método de la falsa posición para determinar la raíz de la ecuación del ejemplo anterior con xi = 12 y xu = 16 se tiene: i
xi
xu
xr
f ( xi )
f ( xu )
f ( xr )
er
1 2 3 4 5 6 7 8 9 10
12.0000000 12.0000000 12.0000000 12.0000000 12.0000000 12.0000000 12.0000000 12.0000000 12.0000000 12.0000000
16.0000000 14.9308695 14.8150760 14.8026327 14.8012966 14.8011532 14.8011378 14.8011361 14.8011360 14.8011359
14.9308695 14.8150760 14.8026327 14.8012966 14.8011532 14.8011378 14.8011361 14.8011360 14.8011359 14.8011359
6.1139431 6.1139431 6.1139431 6.1139431 6.1139431 6.1139431 6.1139431 6.1139431 6.1139431 6.1139431
-2.2302607 -0.2514869 -0.0271452 -0.0029159 -0.0003131 -0.0000336 -0.0000036 -0.0000004 0.0000000 0.0000000
-0.2514869 -0.0271452 -0.0029159 -0.0003131 -0.0000336 -0.0000036 -0.0000004 0.0000000 0.0000000 0.0000000
0.7815922 0.0840618 0.0090264 0.0009691 0.0001040 0.0000112 0.0000012 0.0000001 0.0000000
iteración
1a
2a
=
− gm 1 − e m − v c
=
− gm 1 − e m − v c
iteración
ct
f (12)
− gm 1 − e m − v = 6.1139 c ct
=
f (12) =
6.1139
ct
f (16)
xr = 16 −
ct
=
f (14.9308) =
-2.2302
(-2.2302)(12 − 16)
(-2.2302) − (6.1139) − gm 1 − e m − v c
=
x r
14.9308
= 14.9308 −
=
f (14.8150) =
-0.2514
er =
iteración
3a
4a
− gm 1 − e m − v = 6.1139 c
x r
− gm 1 − e m − v = -0.0271 c
= 14.8150 −
(-0.0271)(12 − 14.8150) (6.1139) − (-0.0271)
er =
=
− gm 1 − e m − v = -0.0029 c ct
f (14.8026) =
14.8026 − 14.8150 14.8026
=
14.8150
− gm 1 − e m − v = -0.0271 c
* 100 = 0.0840
14.8150 − 14.9308 14.8150
* 100 = 0.7815
iteración
f (12) =
− gm 1 − e m − v = 6.1139 c − gm 1 − e m − v = -0.0029 c ct
ct
f (14.8150) =
(6.1139) − (-0.2514)
ct
ct
f (12) =
(-0.2514)(12 − 14.9308) ct
ct
f (14.9308) =
− gm 1 − e m − v = -0.2514 c
f (14.8026) = 14.8026
x r = 14.8026 −
(-0.0029)(12 − 14.8026) (6.1139) − (-0.0029)
=
14.8012
− gm 1 − e m − v = -0.0003 c ct
f (14.8012) = er =
14.8012 − 14.8026 14.8012
* 100 = 0.0090
15
Método de Newton-Raphson.
Los métodos de Bisección y Falsa posición son llamados métodos por intervalos en los cuales los valores iniciales deben encerrar a la raíz deseada. Los métodos siguientes son llamados métodos de intervalo abierto dado que las condiciones iniciales no necesariamente tienen que contener a la raíz. Si el valor inicial de la raíz es xi , entonces se puede trazar una tangente del punto f ( xi ) ; el punto donde esta tangente cruza al eje x representa una aproximación de
la raíz. f ( x )
f ' ( xi )
f ( xi )
xi + 1
0
= xi −
f ( xi ) f ' ( xi )
xi
x i + 1
x
Si la pendiente en un punto dado le llamamos primera derivada de la función f ' ( x) y la pendiente de una recta es m =
y 2 − y1 x2 − x1
f ' ( x ) = m =
podemos tener que:
y 2 − y1 x 2 − x1
=
f ( xi ) xi − xi + 1
Despejando xi + 1 tenemos la ecuación de Newton-Raphson xi + 1
= xi −
f ( xi ) f ' ( xi )
16
Ejemplo: Utilizar el método de Newton-Raphson para encontrar la raíz de f ( x) = e − x − x empleando un valor inicial de x0 = 0 i 0 1 2 3 4 5
xi
f ( xi )
0.0000000 0.5000000 0.5663110 0.5671432 0.5671433 0.5671433
1.0000000 0.1065307 0.0013045 0.0000002 0.0000000 0.0000000
er
f ' ( xi )
-2.0000000 -1.6065307 100.0000000 -1.5676155 11.7092910 -1.5671434 0.1467287 -1.5671433 0.0000221 -1.5671433 0.0000000
Se tiene que f ( x) = e − x − x y su derivada es f ' ( x) = − e − x − 1 1a x0
iteración
=
3a iteración x2 = 0.5663110
0
f ( x 0 ) = e − x − x = 1 f ' ( x 0 ) =
x1
= x0 −
er
=
f ( x 2 ) = e − x − x
f ( x0 ) f ' ( x0 )
0.5 − 0 0.5
1
= 0−
−
2
=
0.5
x3
− e − x − 1 = − 1.6065307
= x1 − =
er =
=
f ( x1 ) f ' ( x1 )
=
0.5 −
0.5663110 0.5663110 − 0.5 0.5663110 11.7092910
f ' ( x2 )
0.1065307 - 1.6065307
4a x3
0.5663110 −
0.0013045 - 1.5676155
0.5671432
* 100
11.7092910
iteración
=
0.5671432
f ( x3 ) = e − x − x = 0.0000002 f ' ( x3 ) = x4
* 100
=
0.5671432 0.5671432 − 0.5663110
=
f ( x1 ) = e − x − x = 0.1065307
x2
f ( x2 )
er =
2 a iteración x1 = 0.5 f ' ( x1 ) =
= x2 − =
* 100 = 100
0.0013045
− e − x − 1 = − 1.6065307
f ' ( x 2 ) =
− e− x − 1 = − 2
=
= x3 − =
er =
=
− e− x − 1 = f ( x3 ) f ' ( x3 )
=
-1.5671434 0.5671432 −
0.5671433 0.5671433 - 0.5671432 0.5671433
0.0000002 - 1.5671434
* 100
0.1467287
17
Método de la secante
El principal problema de la implementación del método de Newton-Raphson es la evaluación de la derivada. Aunque esto no es ningún inconveniente para los polinomios, en algunos de los casos ciertas derivadas son difíciles de evaluar. En estos casos se puede aproximar la derivada mediante una diferencia dividida finita regresiva. f ( x ) f ( x i − 1 )
xi + 1 = xi
−
f ( xi )( xi − 1 − xi ) f ( xi − 1 ) − f ( xi )
f ( xi )
0
x i − 1
x i
xi + 1
Si se toma como triángulos semejantes como sigue
x
f ( xi − 1 ) − f ( xi ) xi − xi− 1
=
f ( xi ) xi + 1 − xi
y
despejando xi + 1 se obtiene la ecuación de Newton-Raphson para la aproximación de la nueva raíz xi + 1
= xi −
f ( xi )( xi − 1 − xi ) f ( xi − 1 ) − f ( xi )
18
Ejemplo: Utilice el método de la secante para calcular la raíz de f ( x) = e− x − x . Comenzando con los valores iniciales de xi − 1 = 0 y xi = 1 x 0
0
0.00000000 1.00000000
x1
1
1.00000000 -0.63212056 100.00000000
x 2
2
0.61269984 -0.07081395 63.21205588
x3
3
0.56383839 0.00518235 8.66586039
x 4
4
0.56717036 -0.00004242 0.58747239
x5
5
0.56714331 -0.00000003 0.00476984
x 6
6
0.56714329 0.00000000 0.00000286
x 7
7
0.56714329 0.00000000 0.00000000
Primera iteración
f ( x1 ) = e − x − x
1- 0
er
=
x 2
= 1−
1
=
-0.6321
* 100 = 100
(-0.6321)(0 − 1) (1) − (-0.6321)
=
x3
= =
er = x4
=
0.6126 0.5638
=1 x2 = 0.6126 x1
0.6126
Tercera iteración x2
-
Segunda iteración f ( x 0 ) = e − x − x = 1
=0 x1 = 1 x0
| er
f ( xi )
xi
i
f ( x1 ) = e − x − x
= -0.6321 f ( x 2 ) = e − x − x = -0.0708
e r
=
0.6126 - 1
x3
=
0.6126 −
0.6126
* 100 = 63.2120
(-0.0708)(1 − 0.6126) (-0.6321) − (-0.0708)
=
0.5638
Cuarta iteración f ( x 2 ) = e − x − x
= f ( x 3 ) = e − x − x =
-0.0708 0.0051
0.5638 - 0.6126
* 100 = 8.6658 0.5638 (0.0051)(0.6126 - 0.5638) 0.5638 − (-0.0708) − (0.0051)
=
= x 4 = x3
0.5638
f ( x3 ) = e − x − x
=
0.0051
0.5671 f ( x 4 ) = e − x − x = -0.00004242 0.5671 - 0.5638 * 100 = 0.5874 0.5671
e r
=
0.5671 x5
=
0.5671 −
=
0.56714331
(-0.00004242)(0.5638 - 0.5671) (0.0051) − (-0.00004242)
19
Raíces Múltiples
Una raíz múltiple corresponde a un punto donde una función es tangencial al eje horizontal x , por ejemplo si f ( x) es formada por una multiplicación de binomios iguales se encontrara una raíz repetida. f ( x ) = x 3
−
5 x 2
+
7x − 3
f ( x ) = ( x − 3)( x − 1)( x − 1) = ( x − 3)( x − 1) 2 f ( x) Raíz Simple Raíz Doble
1
2
3 x
La ecuación anterior tiene una raíz doble porque un valor de x hace que dos términos de la ecuación sean iguales a cero en x = 1 , se observa que en la curva toca al eje x pero no lo cruza. f ( x ) = x 4 f ( x)
=
−
6 x 3
+ 12 x 2 − 10 x +
3
( x − 3)( x − 1)( x − 1)( x − 1) = ( x − 3)( x − 1) 3
f ( x )
Raíz Simple Raíz Triple
1
2
3
x
Para la ecuación f ( x) = x 4 − 6 x 3 + 12 x 2 − 10 x + 3 se observa que la función es tangente al eje x . En general, la multiplicación impar de raíces cruza al eje horizontal x , mientras que la multiplicidad par no lo hace. Las raíces múltiples ofrecen ciertas dificultades a los métodos anteriormente expuestos.
20
Método de Newton-Raphson modificado para raíces múltiples
Para el método de Newton-Raphson modificado es necesario la obtención de la primera y segunda derivada de la función y la obtención de la aproximación de la raíz esta dada por:
= xi −
xi + 1
f ( xi ) f ' ( xi )
[ f ' ( xi )] 2− f ( xi ) f ' ' ( xi )
La manera en que se realizan las iteraciones es de la misma forma que el del método de Newton-Raphson Ejemplo: Utilice el método de Newton-Raphson modificado para evaluar la raíz múltiple de la ecuación con un valor inicial de x0 = 0 f ( x) = x 3 − 5 x 2 + 7 x − 3 Obteniendo la primera y segunda derivada de la función f ( x) se tiene que f ' ( x) = 3 x 2
=
xi
f ( xi )
f ' ( xi )
0 1 2 3 4
0.0000000 1.1052632 1.0030817 1.0000024 1.0000000
-3.0000000 -0.0209943 -0.0000190 0.0000000 0.0000000
7.0000000 -0.3878116 -0.0122982 -0.0000095 0.0000000 x2
0
f ( x 0 ) = x
−
3
f ' ( x 0 ) = 3 x
5 x
2
+
7x − 3 =
−3
− 10 x + 7 = 7 f ' ' ( x0 ) = 6 x − 10 = − 10 ( − 3) (7) = 1.1052 x1 = 0 − 2 [ 7] − (− 3)(− 10) =
1.1052
f ( x1 ) = x 3 − 5 x 2
er =
=
+
7 x − 3 = -0.0209
− 10 x + 7 = -0.3878 f ' ' ( x1 ) = 6 x − 10 = -3.3684 f ' ( x1 )
3 x
f ' ' ( xi )
e r
-10.0000000 -3.3684211 100.0000000 -3.9815100 10.1867572 -3.9999857 0.3079275 -4.0000000 0.0002381
= 1.1052 −
(-0.0209) (-0.3878)
[ - 0.3878] 2 −
(-0.0209)(3.3684)
= 1.0030
2
Segunda iteración x1
f ' ' ( x) = 6 x − 10
7
i
Primera iteración x0
− 10 x +
Tercera iteración
= 1.0030 f ( x1 ) = x 3 − 5 x 2 + 7 x − 3 = -0.000019 f ' ( x1 ) = 3 x 2 − 10 x + 7 = -0.01229 f ' ' ( x1 ) = 6 x − 10 = -3.9815
x1
er =
2
1.1052 - 0 1.1052
* 100 = 100
x2
1.0030 - 1.1052 1.0030
* 100 = 10.1867
(-0.000019) (-0.01229)
=
1.0030 −
=
1.0000024
[ - 0.01229] 2 −
(-0.000019)(-3.9815)
21
Método de Müller
El método de la secante obtiene raíces estimando una proyección de una línea recta en el eje x a través de dos valores de la función. El método de Müller es similar, solo que utiliza una parábola que pasa a través de tres puntos. Estos coeficientes pueden sustituirse en la formula cuadrática para obtener el punto donde la parábola intercepta al eje x, es decir a la raíz estimada ( xˆ ) . f ( x )
x Raíz Estimada
x1
x0 x
x2
x
x Raíz
Escribiendo la aproximación como la ecuación de una parábola se tiene f 2 ( x) = a ( x − x 2 ) 2
+
b( x − x 2 ) + c
(1)
Se desea que la parábola buscada intercepte los dos puntos [ x0 , f ( x0 )] , [ x1 , f ( x1 )] y [ x2 , f ( x2 )]
Los coeficientes de la ecuación (1) pueden evaluarse sustituyendo cada uno de los tres puntos anteriores. f ( x0 ) = a( x0 − x2 ) 2 + b( x0 − x2 ) + c
(2)
f ( x1 ) = a ( x1 − x2 ) 2 + b( x1 − x2 ) + c
(3)
f ( x2 ) = a ( x2 − x2 ) 2 + b( x2 − x2 ) + c f ( x2 ) = c
(4)
Sustituyendo (4) en (2) y (3) f ( x0 ) − f ( x2 ) = a ( x0 − x2 ) 2 + b( x0 − x2 )
(5)
f ( x1 ) − f ( x2 ) = a ( x1 − x2 ) 2 + b( x1 − x2 )
(6)
22
Donde diremos que h0
δ 0 a
=
=
= x1 −
x0
f ( x1 ) − f ( x0 ) h0
δ 1 − δ 0
b
h1 + h0
=
h1
= x2 −
δ 1
=
ah1 + δ 1
x1
f ( x2 ) − f ( x1 ) h1
c
=
f ( x2 )
Para encontrar la raíz se aplica la formula cuadrática general, pero esto podría ocasionar un error potencial, por lo cual se utilizara una ecuación alternativa. x3
= x2 +
− b±
2c
b2
−
4ac
(7)
Observe que el uso de la formula cuadrática implica que se puedan encontrar tanto raíces reales como complejas. El error en las iteraciones se obtiene de la siguiente ecuación
x − x ε a = 3 2 x3
× 100
(8)
La ecuación (7) produce dos raíces correspondientes a los signos (+,-) del denominador. En el método de Müller de acuerdo con el signo de b se puede producir un denominador muy grande, y por lo tanto proporciona una raíz estimada más cercana a x2 . Una vez que se determina x3 , se repite el proceso. Este resultado conduce a n punto que es descartado, en general se utilizan dos estrategias para descartar dicho punto:
1. Si solo se localiza las raíces reales, elegimos dos puntos originales que se aproximen a la nueva raíz estimada x3
2. Si ambas raíces (real y compleja) han sido evaluadas, se emplea una aproximación secuencial. Esto es similar al método de la secante, donde x1 , x2
y x3 toman el lugar de x0 , x1 y x2
23
Ejemplo Utilice el método de Müller con valores iniciales de x0 = 4.5 , x1 = 5.5 y x 2 = 5 para determinar la raíz de la ecuación f ( x) = x3 − 13x − 12 , las raíces de la ecuación son –3, -1, y 4 i
x i
f ( xi )
h0
h1
δ 0
δ 1
a
b
c
0 1 2 3 4 5 6
4.5000 5.5000 5.0000 3.9765 4.0011 4.0000 4.0000
20.6250 82.8750 48.0000 -0.8163 0.0368 0.0000 0.0000
1.0000 -0.5000 -1.0235 0.0246 -0.0010
-0.5000 -1.0235 0.0246 -0.0010 0.0000
62.2500 69.7500 47.6949 34.7310 35.0126
69.7500 47.6949 34.7310 35.0126 35.0000
15.0000 14.4765 12.9775 11.9775 12.0011
62.2500 32.8780 35.0498 35.0000 35.0000
48.0000 -0.8163 0.0368 0.0000 0.0000
x0
=
4.5
f ( x 0 ) = x 3
− 13 x − 12 =
20.6250
x1
=
5.5
f ( x1 ) = x 3
− 13 x − 12 =
82.8750
x2
=
5
f ( x 2 ) = x 3
− 13 x − 12 =
48.0000
h0
= x1 −
δ 0
=
δ 1
=
a
=
x0
=
5.5 − 4.5 = 1
f ( x1 ) − f ( x0 )
=
h0
f ( x2 ) − f ( x1 ) h1
δ 1 − δ 0 h1
+
b = ah1
h0
=
+ δ 1 =
=
h1
= x 2 −
x1
= 5−
(82.8750) − f ( 20.6250) 1 ( 48) − (82.8750)
−
0.5
(69.7500) − (62.2500) ( − 0.5) + (1)
=
=
5.5 =
=
x3a
f ( x3a )
x3b
f ( x3b )
3.9765 -0.8163 1.8735 -29.7795 4.0011 0.0368 1.6808 -29.1020 25.7391 4.0000 0.0000 1.3013 -26.7133 0.6139 4.0000 0.0000 1.0779 -24.7600 0.0262 4.0000 0.0000 1.0833 -24.8119 0.0000
− 0.5
62.2500
69.7500
15.0000
(15.0000) × ( − 0.5) + (69.7500) = 62.2500
c = f ( x 2 ) = 48.0000
x3a
= x2 +
b±
f ( x 3a ) = x 3
x3b
= x2 +
2c
b
2
−
4ac
− 13 x − 12 =
b±
f ( x 3b ) = x 3
−
−
2c
b
2
−
4ac
− 13 x − 12 =
= 5+
− (62.2500) +
2( 48)
(62.2500)
2
−
4(15.0000)(48)
=
3.9765
-0.8163
= 5+
− (62.2500) −
2( 48)
(62.2500)
2
−
er
4(15.0000)(48)
= 1.8735
-29.7795
24
Iteración de punto fijo
Otro método que podemos utilizar y que puede englobar a los demás métodos se denomina iteración de punto fijo. Este método se obtiene directamente del problema original es decir: f ( x ) = 0
(1)
De esta ecuación lo que puede intentarse para resolverla es despejar x , pero como ya sabemos, esto puede ser imposible para ciertas funciones. El método de iteración de punto fijo, sigue esta idea, pero como no es posible despejar x , al menos lo que se hace es poner x en función de si misma, es decir: x = g ( x )
(2)
Esto se logra despejando x reacomodando la ecuación original. Para resolver la ecuación se comienza con un valor inicial evaluando la función g ( x) para hallar otro valor de x . La x obtenida de esta manera, se usa para generar otra x , evaluándola en la función g ( x) . Se repite el procedimiento nuevamente hasta que se cumpla algún criterio de convergencia. Por lo anterior la ecuación (3) define el método es: xn + 1 = g ( xn )
(3)
Se puede demostrar que este método por lo regular tiene convergencia lineal, por lo cual podría ser lento. Ejemplo del método de iteración de punto fijo La ecuación x 3 + 2 x 2 + 10 x − 20 = 0 se puede expresar de varias maneras como un punto fijo: xn+ 1
=
20 xn2 + 2 xn + 10
(4)
ó 20 − xn3 + 2 xn2
xn + 1
=
x n + 1
= sen( xn ) +
10
(5)
de la ecuación sen( x) = 0 xn
(6)
0.15)
(7)
de la ecuación − x 2 + x + sen( x + 0.15) = 0 x n + 1
= xn2 − sen( x n +
25
La desventaja de este método es hallar una función g ( x) que sea convergente. Se puede demostrar que el método será convergente sí dg ( x) dx
≤1
(8)
Como en general es difícil probar esto se prefiere ensayar con varias funciones g ( x) hasta hallar una que sea convergente. En la práctica en algunos casos el problema se plantea directamente como una iteración de punto fijo. Los demás métodos se pueden expresar como puntos fijos. Por ejemplo sí g ( xn+ 1 ) = xn −
y ( xn ) dy( xn ) dx
(9)
Se tiene el método de Newton-Raphson. Si g ( xn+ 1 ) = xn
−
y ( xn )( xn − xn − 1 ) y ( xn ) − y ( xn − 1 )
(10)
Se obtiene el método de la secante.
26
Unidad III Solución numérica de sistemas de ecuaciones
Una matriz consiste de un arreglo rectangular de elementos representado por un solo símbolo.
a11 a 21 A = a n1
a21
a1m
a 22
a2m
an 2
anm
A es de n renglones por m columnas. Su dimensión es de n × m donde An× m Si n = 1 ,se le conoce como vector
Si m = 1 ,se le conoce como vector
renglón;
columna
B
= [ b1
b2
b3
c1 c 2 C = c3 cn
bm ]
Si m = n se le llama matriz cuadrada.
a11 a 21 A4× 4 = a31 a 41
a12
a13
a22
a23
a32
a33
a42
a43
a14
a34 a44 a24
En este caso la dimensión es: Dim[ A] = 4 × 4 A los elementos a11 , a 22 , a33 , a 44 y en general aii se les conoce como diagonal principal. Tipos de matrices cuadradas Matriz simétrica es aquella donde aij
=
a ji
5 A = 1 2
∀
i, j . 1 3 7
2
8 7
La matriz diagonal es aquella donde todos los elementos fuera de la diagonal principal
son cero.
a11 A = 0 0
0
a 22 0
0 a33 0
27
La matriz identidad es aquella cuyos elementos de la diagonal principal son 1 y los
demás 0.
1 I = 0 0
0
0
1
1
0
0
La matriz triangular superior es aquella en la que todos los elementos por debajo de
la diagonal principal son 0.
a11 A = 0 0
a12 a 22 0
a13
a33
a 23
La matriz triangular inferior es aquella en la que todos los elementos por encima de
la diagonal principal son 0.
a11 A = a21 a31
0
0 a33 0
a22 a32
Matriz banda, tribanda o tridiagonal La matriz banda tiene todos los elementos igual
a 0 excepto en una banda centrada sobre la diagonal principal.
A4× 4
a11 a = 21 0 0
a12
0
a 22
a 23
a32
a33
0
a 43
0 a34 a 44 0
Operaciones con matrices
Dos matrices de n × m son iguales si y solo si cada elemento se encuentra en la segunda matriz A = B Si aij = bij ∀ i, j . Suma de matrices C = A + B a11 a 21 b11 b21
c11 c21 = b22 c 21 c 22 i = 1, 2, 3,, n para j = 1, 2, 3, , m
Resta de matrices C = A − B a11 a 21 b11 b21
c11 c21 = a a b22 c21 c22 21 21 i = 1, 2, 3,, n cij = aij + bij j = 1, 2, 3,, m cij = a ij − bij para La suma y la resta de matrices son conmutativas y asociativas A + B = B + A : E-F = -F + E + a 22 b21
− a22 b21
28
Multiplicación
Multiplicación por un escalar
ga11 ga 21 D = gA = ga n1
ga 21
ga1m
ga 22
ga 2 m
ga n 2
ga nm
Multiplicación de dos matrices
La multiplicación de dos matrices se puede realizar si y solo si la primera matriz tiene el mismo número de columnas que el número de renglones de la segunda matriz. El producto de dos matrices se presenta como: C = AB cij
=
n
∑cb k = 1
ik kj
( An× m )( Bm× l ) = C n× l
La multiplicación es asociativa si se cumple las condiciones ( AB )C = A( BC ) La multiplicación es distributiva si A( B + C ) = AB + AC
Aunque la multiplicación de matrices es posible la división de matrices no esta definida. Sin embargo, si la matriz A es cuadrada y no singular (Determinante diferente de cero) existe una matriz A − 1 llamada inversa de la matriz para la cual AA− 1 = A − 1 A = I . La multiplicación de una matriz por la inversa es análoga a la división en el sentido de que un número dividido por si mismo es igual a 1. Para matrices cuadradas la inversa esta dada de la siguiente forma. Para matrices de 2 × 2
a11 Si A = a21 A − 1
=
a12
entonces
a22
a 22 − a 21 a11 a11a 22 − a12 a 21 − a12 1
Para matrices de 3 × 3
a11 A = a 21 a31 1 A − 1 = − A
a12
a13
a22
a 23 entonces a33
a32
a 22 a 32 a 21 a 31 a 21 a 31
a 23
a12 − a a33 32 a 23 a11 a a33 31 a 22 a − 11 a 32 a 31
a13
a12 a a33 22 a13 a11 − a a33 21 a12 a11 a a32 21
a13
a 23 a13
a 23 a12
a 22
29
Matriz transpuesta
Si los renglones y las columnas de una matriz A se intercambian, entonces la matriz resultante de n × m se conoce como la transpuesta de A y se denota AT
a11 a 21 A = a31 a 41
a12
a13
a 22
a 23
a32
a33
a 42
a 43
a14
a11 a 12 T entonces A = a13 a 14
a34 a 44 a 24
a 21
a31
a 22
a32
a 23
a33
a 24
a34
a 41
a 43 a 44 a 42
aij
=
a ji
La traza de una matriz es la suma de los elementos de su diagonal principal. tr [ A]
=
n
∑
aij
i= 1
Determinante de una matriz
Para matrices de 2 × 2 Det [ A]
=
a11a 22
−
a12 a 21
Para matrices de 3 × 3 Det [ A]
=
a11a22a33 + a12a23a31 + a13a21a32
−
a31a22a13 − a32a23a11 − a33a21a12
Para matrices de 4 × 4 Det [ A]
=
a11 a 22 a33 a 44 -a11 a 22 a34 a 43 -a11 a32 a 23 a 44+a11 a32 a 24 a 43
+a11 a 42 a 23 a34 -a11a 42 a 24 a33 -a 21a12 a33 a 44+a21 a12 a34 a 43 +a21 a32 a13 a 44 -a 21a32 a14 a 43 -a 21a 42 a13 a34+a21 a 42 a14 a33 +a31a12 a 23 a 44 -a31 a12 a 24 a 43 -a31 a 22 a13 a 44+a31 a 22 a14 a 43 +a31a 42 a13 a 24 -a31 a 42 a14 a 23 -a 41a12 a 23 a34+a41 a12 a 24 a33 +a41 a 22 a13 a34 -a 41a 22 a14 a33 -a 41a32 a13 a 24+a41 a32 a14 a 23
30
Regla de Cramer
La regla de Cramer permite resolver sistemas lineales de ecuaciones de n ecuaciones, con n incógnitas. Si Ax = b es un sistema de ecuaciones. ( A es la matriz de coeficientes del sistema, x es el vector columna de las incógnitas y b es el vector columna de los términos independientes). Entonces la solución al sistema se presenta así: x j
=
A j A
Por ejemplo si se tiene un sistema de tres ecuaciones y tres incógnitas a11 x1 a21 x1 a31 x1
+ + +
a12 x2 a22 x2 a32 x2
+ + +
= = =
a13 x3 a23 x3 a33 x3
b1 b2 b3
escribiendo el sistema lineal en forma matricial tenemos
a11 a 21 a31
a12 a22 a32
a13 x1
= a33 x3 Ax =
a23 x2
b1 b 2 b3 b
Obtenemos el determinante de los coeficientes del sistema, luego sustituimos en cada columna la matriz de resultados del sistema y se obtiene su determinante. A
x1
=
=
a11
a12
a13
a11
b1
a13
a 21
a 22
a 23
a 21
b2
a 23
a31
a32
a33
a31
b3
a33
b1
a12
a13
b2
a 22
a 23
a11
a12
b1
b1
a32
a33
a 21
a 22
b2
a31
a32
b3
A
x 2
x3
=
=
A
A
31
Ejemplo Utilizar la regla de Cramer para resolver el siguiente sistema lineal. + + +
0.3 x1 0.5 x1 0.1 x1
+ + +
0.5 x 2 x 2 0.3 x 2
x3 1.9 x3 0.5 x3
= − 0.01 = 0.67 = − 0.44
Escribiendo el sistema lineal en forma matricial se tiene que 0 .3 0 .5 0.1
x1 − 0.01 1.9 x 2 = 0.67 0.5 x3 − 0.44 Ax = b
0 .5
1
1 0.3
Obteniendo el determínate de A 0.3 0.5 A
=
0.5
1
1
1.9
0.1 0.3 0.5 A
=
0.3(1 × 0.5 − 0.3 × 1.9) − 0.5(0.5 × 0.5 − 0.3 × 1) + 0.1(0.5 × 1.9 − 1 × 1) =
− 0.001
Sustituyendo el vector columna b en la primera columna de A j se obtiene x j −
0.01 0.5
0.67
x1
=
x1
= =
x 2
= =
x 3
= =
−
0.44
−
−
1
0 .3
1 .9
0 .5
0.67
1 .9
0.1
− 0.44 − 0.001
0.5
0.3 0.5
x 2
0.001
=
0.0562 0.001
1
0.3 0.5 0.5
x3
=
−
1
0.1 0.3
−
0.01
0.67
−
0.44
0.001
0.001
= − 56.2
0.3 (0.67 × 0.5 − 1.9 ×
− 0.44) −
0.5 (− 0.01 × 0.5 − ( − 0.44) × 1) + 0.1 (( − 0.01) × 1.9 − 0.67 × 1)
− 0.0649
−
0.01
0.01 (1 × 0.5 − 1.9 × 0.3) − 0.67 (0.5 × 0.5 − 0.3 × 1) + ( − 0.44) (0.5 × 1.9 − 1 × 1)
− −
−
1
0.001
0.001
= − 64.9
0.3 (1 × (− 0.44) − 03 × 0.67) − 0.5 (0.5 × ( − 0.44) − 0.3 × (− 0.01)) + 0.1 (0.5 × 0.67 − 1 × (− 0.01))
− − 0.0493 = − 0.001
0.001
49.3
0.3 Por lo tanto la solución del sistema es 0.5 0.1
0.5 1 0.3
− 56.2 − 0.01 1.9 − 64.9 = 0.67 0.5 49.3 − 0.44 1
32
Eliminación de Gauss o Gaussiana Simple
Este método consiste en expresar el sistema como una matriz aumentada de la forma Ax = b
a11 a 21 a n1
a12
a13
a1n
a 22
a 23
a2n
an2
an 3
a nn
b1
bn b2
La idea del método es llevar el sistema a la forma triangular superior y de allí despejar una variable a la vez partiendo de la última. Él último paso se conoce como sustitución en reversa. Para lograr llevar el sistema a la forma triangular superior, se emplean las operaciones elementales de matrices como son el intercambio de renglones, división entre un escalar a cada renglón, así como suma y resta entre renglones. Ejemplo Resuelva el siguiente sistema de ecuaciones lineales mediante el método de Gauss 10 x1
− x1 2 x1
− + − +
x 2 11 x 2 x 2 3 x 2
+ − + −
2 x3 x3 10 x3 x3
+ − +
3 x4 x 4 8 x4
= 6 = 25 = − 11 = 15
La matriz aumentada es 10 − 1 2 0 6 − 1 11 − 1 3 25 2 − 1 10 − 1 − 11 0 3 − 1 8 15 Para simplificar el sistema se avanzara por la diagonal principal. Los elementos de la diagonal principal se denominaran pivote. Primero localicemos en la primera columna el primer elemento que sea ≠ 0 y lo llevaremos al primer renglón. En este caso se tiene que el pivote es 10. Como no es 0, no hacemos nada. En caso de ser necesario habríamos intercambiado 2 renglones de la matriz. A continuación pasaremos a hacer 0 los elementos que están debajo del pivote. Para ello sumaremos múltiplos apropiados del renglón pivote a cada renglón de tal forma que los elementos debajo del pivote sean 0.
33
Avancemos por la diagonal principal al segundo renglón. Este será ahora el renglón pivote.
10 R2 → R2 − R1 (− 1) / 10 0 R3 → R3 − R1 (2) / 10 0 R4 → R4 − R1 (0) / 10 0
−1
10.9 0.8 3
−
2 − 0.8 9.6 −1
0 3 −1 8
6 25.6 − 12.2 15
Busquemos el primer elemento que sea ≠ 0 para que sea el pivote, el pivote es 10.9. Eliminado los elementos debajo del pivote tenemos
10 − 1 0 10.9 0 R3 → R3 − R2 (− 0.8) / 10.9 0 0 0 R4 → R4 − R2 (3) / 10.9
2 0 6 3 25.6 − 0.8 9.541284 -0.779816 -10.321100 -0.779816 7.174311 7.954128
Llevando el elemento ≠ 0 al renglón pivote, el pivote es 9.541, haciendo 0 elementos abajo del elemento pivote
10 − 1 0 10.9 0 0 0 R4 → R4 − R3 (-0.779816) / 9.541284 0
2 0 6 3 25.6 − 0.8 . . . 9 541284 0 779816 10 321100 0 7.110576 7.110576
Ya tenemos la matriz A en la forma triangular superior. Continuación usamos la sustitución en reversa. 10 x1
−
x 2 10.9 x 2
+ −
2 x3 0.8 x3 9.541284 x3
+ −
3 x 4 0.779816 x 4 7.110576 x4
= = = =
6 25.6 -10.321100 7.110576
Por lo tanto tenemos que la solución es:
1 2 x = − 1 1
34
Eliminación de Gauss Jordán
Jordán propuso una modificación al procedimiento anterior. En vez de llevar el sistema a la forma triangular superior y de allí usar la sustitución en reversa, él pensó que seria más fácil continuar el procedimiento de eliminación de elementos, es decir, él propuso eliminar los elementos tanto arriba como abajo del pivote hasta llegar a la matriz identidad. De esta manera la solución del sistema se puede leer directamente de la última columna de la matriz aumentada. Ejemplo Resuelva el siguiente sistema de ecuaciones lineales mediante el método de Gauss-Jordán 10 x1
− x1 2 x1
− + − +
x 2 11 x 2 x 2 3 x 2
+ − + −
2 x3 x3 10 x3 x3
+ − +
3 x4 x 4 8 x4
= 6 = 25 = − 11 = 15
La matriz aumentada es 10 − 1 2 0 6 − 1 11 − 1 3 25 2 − 1 10 − 1 − 11 0 3 − 1 8 15
Buscando el primer pivote que no sea 0 y llevándolo al renglón pivote, por lo tanto el pivote es 10. Dividiendo entre el pivote el renglón pivote y eliminando los elemento arriba y abajo del renglón pivote R1 → R1 / 10
1 − 0.1 0.2 0 0.6 R2 → R2 − R1 ( − 1) 0 10.9 − 0.8 3 25.6 R3 → R3 − R1 (2) 0 − 0.8 9.6 − 1 − 12.2 R4 → R4 − R1 (0) 0 − 1 8 15 3 Avanzando por la diagonal principal al segundo renglón. Buscando el primer elemento no sea 0 y llevándolo a la diagonal principal tenemos que el pivote es 10.9. Dividiendo entre el pivote y eliminando los elemento arriba y abajo del pivote
35
R1
→
R1 − R2 (− 0.1) 1 0
0 R3 → R3 − R2 (− 0.8) 0 R4 → R4 − R2 (3) 0 R2
→
R2 / 10.9
1
−
73.3944 E − 3
0 0
2.7523 E − 2
0.1927
0.2752
−
9.541
−
0.7798
0.8349
− 10.32 7.954 2.3486
0.7798 7.714
Pasando al tercer renglón. Llevando el elemento ≠ 0 al renglón pivote, el pivote es 9.541y dividiendo entre el elemento pivote y haciendo 0 elementos arriba y abajo del elemento pivote
→
R1 − R3 (0.1927)
1 R2 → R2 − R3 (− 73.3944 E − 3) 0 0 R3 → R3 / 9541 0 R4 → R4 − R3 (− 0.7798) R1
0
0
4.3269 E − 2
1
0
0.2692
0
1
0
0
−
8.1937 E − 2 7.111
2.269 − 10.82 7.111 1.043
Pasemos al cuarto renglón. Llevando el elemento ≠ 0 al renglón pivote, el pivote es 7.111. Dividiendo entre el elemento pivote y haciendo 0 elementos arriba y abajo del elemento pivote R1
→
R1 − R4 (4.3269 E − 2) 1
0 R2 → R2 − R4 (0.2692) R3 → R3 − R4 (− 8.1937 E − 2) 0 0 R4 → R4 / 7.111
0 0
0
1
0
0
0 1
0
0 0 1
2 − 1 1 1
Por simple inspección la solución es:
1 2 x = − 1 1
36
Inversión de matrices
Este método es más teórico. Consiste en expresar el sistema como una ecuación matricial de la forma Ax = b y despejar el vector columna x . Dado que no esta definida la división de matrices se usa la matriz inversa A − 1 . Multiplicando por la matriz inversa ambos lados se tiene A − 1 Ax = A − 1b de donde I x = A − 1b y finalmente x = A − 1b .
El problema se reduce a hallar la matriz inversa para multiplicarla por el
vector columna b y así hallar x . Para hallar la matriz inversa se puede utilizar el siguiente procedimiento. Se coloca la matriz A junto a una matriz identidad I del mismo tamaño, es decir,
a11 a 21 a31 a n1
a12
a1n
1
0
0 0
a 22
a2n
0 1
0 0
a32
a3 n
0 0 1
an2
a nn
0 0
0
0 1
Se aplica la eliminación de Gauss Jordán a la matriz A , las operaciones que se le hagan a la matriz A , también se le aplican a I . La matriz A se convierte en I. Se puede demostrar que matriz I se convierte en A -1 . Una vez hallada A -1 se procede a multiplicarla por b . x = A − 1b
37
Descomposición LU
El esquema de descomposición LU es una transformación de una matriz A como producto de dos matrices: LU A = LU
Donde L es una matriz triangular inferior y U es una matriz triangular superior.
u11 0 0
Ax = b
(1)
Ax − b = U
(2)
d 1 u22 u23 x2 = d 2 0 u33 x3 d 3 Ux − D = 0 u12
u13 x1
(3) (4)
Suponer la existencia de una matriz L que tiene la forma
1 L = l 21 l 31
0
0
1
0
l 32
1
(5)
Que tiene la propiedad de que al multiplicarla por (5) produzca (2) L(Ux − D) = Ax − b
(6)
Si estas condiciones se cumplen LU = A LD
=
b
(7) (8)
1.- Paso a descomposición. La matriz A se le factoriza o descompone en matrices triangular superior U y triangular inferior L 2.- Paso de sustitución. Las matrices L y U se utilizan para determinar una solución x para un lado derecho de (8), en este paso a su vez se divide en 2, primero la ecuación (8) se utiliza para generar un vector intermedio D por sustitución hacia adelante. Posteriormente el resultado se sustituye en la ecuación (4), la cual se resuelve por sustitución hacia atrás para hallar x La eliminación de Gauss puede utilizarse para descomponer A en L y U . Recordar que U es una matriz triangular superior.
38
a11 U = 0 0
a12 a'22 0
a'23 el superíndice (‘) indica el número de veces que el renglón ha sido a' '33 a13
modificado por la eliminación de Gauss
a11 A = a21 a31
a13
a12
a33
a22
a23
a32
Aunque no es obvio, la matriz L se produce durante este paso
1 L = f 21 f 31
0
0
1
0
f 32
Donde:
1
f 21
a 21
=
f 31
a11
=
a31 a11
f 32
=
a'32 a' 22
Recuérdese que: A = LU Ejemplo Obtener la descomposición LU mediante eliminación Gaussiana y encontrar la solución del siguiente sistema. 3 x1 0.1 x1 0.3 x1
− + −
0.1 x2 7 x2 0.2 x2
− − +
0.2 x3 0.3 x3 10 x3
= 7.85 = − 19.3 = 71.4
Escribiendo el sistema lineal de ecuaciones en forma matricial se tiene:
3 − 0.1 − 0.2 0.1 7 − 0.3 0.3 − 0.2 10
x1 7.85 x = − 19.3 2 x3 71.4
Haciendo ceros los elementos por debajo de la diagonal principal
3 − 0.1 − 0.2 R2 → R2 − 03.1 R1 0.1 7 0.3 − 0.3 R3 → R3 − 3 R1 0.3 − 0.2 10 − 0.2 3 − 0.1 0 7.0033 − 0.293333 − 0.19 10.02 R3 → R3 − 7.0033 R2 0 − 0.19
39
3 a' 2 x 0 a' ' 3 x 0 a1 x
−
0.1
7.0033 0
−
− 0.293333 10.012042 0.2
de la Matriz tenemos U y del sistema de ecuaciones tenemos a b
3 U = 0 0 f 21 f 31 f 32
=
a21
=
a31
=
a'32
a11 a11 a'22
−
−
0.1
7.0033 0
=
0.1
=
0.3
3 3
−
=
= =
− 0.293333 10.012042
7.85 b = − 19.3 71.4
0.2
0.0333
1 L = 0.0333 0.1 −
0.1
0.19
7.0033
= − 0.02713
0
0
1
0
0.02713
1
Tenemos que A = LU
3 − 0.1 − 0.2 7 0.3 L = − A = 0.1 0.3 − 0.2 10 y que LD = b entonces
1 0.0333 0.1 − 1 0.0333 0.1 −
0 1 0.02713
0 1 0.02713
0
0 1
3 U = 0 0
−
0.1
7.0033 0
−
− 0.293333 10.012042 0.2
0 d 1
7.85 0 d 2 = − 19.3 1 d 3 71.4 LD = b
Haciendo una sustitución hacia delante se obtiene D por lo tanto: d 1
=
7.85
sustituyendo d 1 0.0333 d 1
d 2
+
d 2
= − 19.3 −
= − 19.3
(0.0333)(7.85)
= − 19.5617
sustituyendo d 1 y d 2 0.1 d 1 − 0.02713 d 2
d 3
=
+
d 3
=
7.85 D = − 19.5617 70.0843
71.4
71.4 − (0.1)(7.82) + (0.02713)(− 19.5617) = 70.0843
40
UX = D
−
3 0 0
0.1
7.0033 0
−
− 0.293333 10.012042 0.2
x1 7.85 x = − 19.5617 2 x3 70.0843
Haciendo sustitución hacia atrás encontramos el resultado del sistema de ecuaciones De la ecuación despejamos x3 10.012042 x 3 x3
=
=
70.0843
70.0843 10.012042
=
7
despejando x 2 7.0033 x 2 x 2
−
0.293333 x3
− 19.5617 +
=
= − 19.5617
0.293333 x 3
7.0033
=
− 19.5617 +
(0.293333)(7)
7.0033
= − 2.5
Despejando x1 3 x1 x1
=
−
0.1 x 2
−
0.2 x 3
7.85 + 0.1 x 2
+
3
=
7.85
0.2 x3
=
7.85 + (0.1)(− 2.5) + (0.2)(7) 3
=
3
Por lo tanto la solución del sistema lineal es
X = −
2.5 7 3
3 − 0.1 0.3 −
0.1 7 0.2
− −
0.2
0.3 10
−
7.85 2.5 = − 19.3 7 71.4 3
41
Descomposición de CROUT
Es análoga a la descomposición LU para la solución de sistemas lineales, solo que la matriz b contiene la columna correspondiente a una matriz identidad, para la obtención de la inversa de la matriz. Ejemplo Utilizar la descomposición LU para determinar la inversa de la matriz A recuerde que AA − 1 = I
3 − 0.1 − 0.2 7 − 0.3 A = 0.1 0.3 − 0.2 10 Utilizando la decomposición LU mediante eliminación Gaussiana simple y encontrar LU se
tiene que: Haciendo ceros los elementos por debajo de la diagonal principal
− 0.2 3 − 0.1 − 0.2 3 − 0.1 0 7.0033 − 0.293333 7 − 0.3 R2 → R2 − 03.1 R1 0.1 0.3 − 0.19 R3 → R3 − 3 R1 0.3 − 0.2 10 R3 → R3 − 7.0033 R2 0 − 0.19 10.02 − 0.2 a1 x 3 − 0.1 a' 2 x 0 7.0033 − 0.293333 a' ' 3 x 0 0 10.012042 De la matriz tenemos U y B es la primera columna de una matriz identidad para calcular la primera columna de la inversa de la matriz
3 U = 0 0 f 21 f 31 f 32
=
a21
=
a31
=
a' 32
a11 a11 a' 22
−
−
0.1
7.0033 0
=
0.1
=
0.3
=
3 3
−
= =
− 0.293333 10.012042 0.2
1 b= 0 0
0.0333 0.1
0.19
7.0033
= − 0.02713
1 L = 0.0333 0.1 −
0
0
1
0
0.02713
1
42
Tenemos que A = LU
3 − 0.1 − 0.2 7 − 0.3 L = A = 0.1 0.3 − 0.2 10 y que LD = b entonces
1 0.0333 0.1 −
0
0
1
0
1
0.02713
1 0.0333 0.1 −
3 U = 0 0
−
−
0.1
7.0033 0
− 0.293333 10.012042 0.2
0 d 1
0 1 0.02713
1 0 d 2 = 0 1 d 3 0 LD = b
Haciendo una sustitución hacia delante se obtiene D por lo tanto: d 1
=
1
sustituyendo d 1 0.0333 d 1 + d 2
d 2
=
UX = D
0
3 0 0
= − (0.0333)(1) = − 0.033333
sustituyendo d 1 y d 2 0.1 d 1 − 0.02713 d 2 d 3
= − (0.1)(1) +
+
d 3
=
0
(0.02713)(− 0.0333)
−
0.1
7.0033 0
−
− 0.293333 10.012042 0.2
1 x1 x = - 0.033333 2 x3 - 0.100904
= − 0.100904
Haciendo sustitución hacia atrás encontramos el resultado del sistema de ecuaciones para encontrar la primera columna de la inversa de la matriz. De la ecuación despejamos x3
= − 0.104904
10.012042 x3
x3
=
−
0.104904
10.012042
= − 0.0100783
Despejando x 2 7.0033 x2
x2
=
−
−
0.293333 x3
= − 0.033333
0.033333 + 0.293333 x3 7.0033
=
−
0.033333 + (0.293333)(− 0.0100783) 7.0033
= − 0.00518177
Despejando x1 3 x1 − 0.1 x2 x1
=
−
0.2 x3
1 + 0.1 x 2 3
+
=
1
0.2 x3
=
7.85 + (0.1)(− 0.00518177) + (0.2)(− 0.0100783) 3
=
0.332489
43
Por lo tanto la primera columna de la inversa de la matriz es
0.332489 X 1 = − 0.00518177 − 0.0100783
0.332489 A − 1 = − 0.00518177 − 0.0100783
? ?
?
? ? ?
Para la segunda columna
0 LD = 1 0
1 0.0333 0.1 −
0 d 1
0 1 0.02713
0 1
0 d = 1 2 d 3 0
Haciendo una sustitución hacia delante se obtiene D por lo tanto: d 1
=
0
sustituyendo d 1 0.0333 d 1 d 2
= 1−
+
d 2
UX = D
=1
sustituyendo d 1 y d 2 0.1 d 1 − 0.02713 d 2 d 3
= − (0.1)(0) +
+
=
d 3
−
3 0 0
(0.0333)(0) = 1 0
0.1
7.0033 0
−
− 0.293333 10.012042 0.2
x1 0 x = 1 2 x3 0.02713
(0.02713)(1) = 0.02713
Haciendo sustitución hacia atrás encontramos el resultado del sistema de ecuaciones para encontrar la segunda columna de la inversa de la matriz. De la ecuación despejamos x3 10.012042 x 3
=
0.02713
x3
=
0.02713 10.012042
=
0.00270973
Despejando x 2 7.0033 x 2 x 2
=
−
0.293333 x3
1 + 0.293333 x3
=
7.0033
=1
1 + (0.293333 )(0.00270973) 7.0033
=
0.142903
Despejando x1 3 x1
x1
=
−
0.1 x 2
0.1 x 2
−
+ 3
0.2 x 3 0.2 x3
= =
0 (0.1)(0.142903) + (0.2)(0.00270973) 3
=
0.00494407
Por lo tanto la segunda columna de la inversa de la matriz es
44
X 2
0.00494407 = 0.142903 0.00270973
A
−1
0.332489 = − 0.00518177 − 0.0100783
0.00494407 ?
?
0.142903
?
0.00270973
Para la Tercer columna
0 LD = 0 1
1 0.0333 0.1 −
0 d 1
0 0 d 2 = 0 1 d 3 1
0 1 0.02713
Haciendo una sustitución hacia delante se obtiene D por lo tanto: d 1
=
0
sustituyendo d 1 0.0333 d 1 d 2
+
d 2
=
UX = D
0
= − (0.0333)(0) =
−
3 0 0
0
sustituyendo d 1 y d 2
− 0.02713 d 2 + d 3 = 1 d 3 = 1 − (0.1)(0) + (0.02713)(0) = 1
0.1 d 1
−
− 0.293333 10.012042
0.1
7.0033 0
0.2
x1 0 x = 0 2 x3 1
Haciendo sustitución hacia atrás encontramos el resultado del sistema de ecuaciones para encontrar la Tercera columna de la inversa de la matriz. De la ecuación despejamos x3 10.012042 x3
=1
x3
=
x 2
=
1 10.012042
=
0.0998797
Despejando x 2 7.0033 x 2
−
0.293333 x3
=
0
0.293333 x3 7.0033
=
(0.293333 )(0.0998797) 7.0033
=
0.00418344
Despejando x1 3 x1
x1
=
−
0.1 x 2
0.1 x 2
−
+ 3
0.2 x 3 0.2 x3
= =
0 (0.1)(0.00418344) + (0.2)(0.0998797) 3
=
0.0067981
Por lo tanto la segunda columna de la inversa de la matriz es
0.0067981 X 3 = 0.00418344 0.0998797
0.332489 A − 1 = − 0.00518177 − 0.0100783
0.00494407 0.142903 0.00270973
0.0067981
0.0998797
0.00418344
45
Descomposición de Cholesky
Una matriz simétrica es aquella en que aij = a ji ∀ i, j , por lo tanto AT = A . La descomposición de Cholesky se basa en que una matriz simétrica se puede descomponer en A = LLT donde
a11 a 12 a13
a13
l 11 a 23 = l 21 a33 l 31
a12 a22 a 23
0
l 22 l 32
0 l 11
l 21
0
l 22
0 l 33 0
=
l 211
l 11
=
a 21
=
l 11l 21
l 21
=
a 21
a 31
=
l 11l 31
l 31
=
a13 l 11
a22
=
2 l 21 + l 222
l 22
=
a32
=
l 31l 21 + l 32l 22
l 32
=
a 33
=
2 l 31
l 33
=
2 l 32
+
2 l 33
l 33 l 32
0
a11
+
l 31
a11 l 11
a 22 a32
−
−
2 l 21
l 31l 21
l 22 2 a33 − (l 31 + l 322 )
De donde se obtiene las siguientes formulas: l ii
=
aii
−
i− 1
∑ l
2 ki
Para los elementos de la diagonal principal
k = 1
l ij
=
aij
−
i− 1
∑ l l
ki kj
k = 1
l ii
para i < j
Para los elementos fuera de la diagonal principal
46
Ejemplo Aplicar la descomposición de Cholesky a:
6 A = 15 55 l 11
=
l 21
=
l 22
=
l 31
=
a13
l 32
=
a32 − l 31l 21 l 22
l 33
=
a11 a21 l 11
=
=
2.44949
l 11
a 33
=
55 2.44949
−
2 (l 31
=
+
255
6.12372
55 − (6.12372) 2
=
55
255 1500 55
2.44949
15
2 a22 − l 21
=
=
6
15
=
=
4.1833
22.4537
255 − ( 22.4537)(6.12372) 4.1833 2 l 32 )
=
=
28.0879
−
(28.0879) 2
1500 − (22.4537) 2
2.44949 L = 6.12372 22.4537 2.44949 0 LT = 0
0
= 14.3842
0 14.3842 0
4.1833 28.0879
6.12372 22.4537 4.1833 0
14.3842 28.0879
Por lo tanto A = LLT
2.44949 6.12372 22.4537
0 4.1833 28.0879
2.44949 0 0 14.3842 0 0
6.12372 4.1833 0
22.4537
28.0879 = 14.3842
6 15 55
15 55 255
255 1500 55
47
Método de Jacobi.
Esta técnica muestra cierta similitud con el método de iteración de punto fijo, ya que consiste en despejar una de las incógnitas de una ecuación dejándola en función de las otras. La manera más sencilla es despejar a x1 de la primer ecuación, x 2 de la segunda ecuación, xi de la i-ésima ecuación, hasta xn de la n-ésima ecuación. Es necesario por razones obvias que todos los elementos de la diagonal principal de la matriz de coeficientes del sistema lineal, sean diferentes de cero. Sea el sistema lineal:
+ + +
a11 x1 a21 x1 a31 x1
a12 x2 a22 x2 a32 x2
+ + +
+ + +
a13 x3 a23 x3 a33 x3
+ + +
a1n xn a2 n xn a3n xn
= = =
b1 b2 b3
+
an1 x1
an 2 x2
+
+
an3 x3
+
ann xn
=
bn
Al realizar los despejes propuestos se tiene x1 de la primera ecuación, x 2 de la segunda ecuación, etc. se tiene: x1
=
x2
=
x3
=
xn
=
b1 − ( a12 x2 + a13 x3 + + a1n xn ) b2 − ( a21 x1 +
a11 a23 x3 + + a2 n xn )
b3 − ( a31 x1 +
a22 a32 x2 + + a3n xn ) a33
b1 − ( an1 x1 + an 2 x2 + an 3 x3 + a1n− 1 xn − 1 ) ann
Para estimar la primera aproximación a la solución se debe partir de un vector inicial, el cual puede ser el vector x 0 = 0 , o algún otro que se encuentre próximo al vector de solución x . En general, el vector de aproximación a la solución después de las iteraciones se puede calcular de la siguiente manera. bi k + 1 i
x
=
−
n
∑
aij x jk
j = 1 j ≠ i
aii
48
Ejemplo Resolver el siguiente sistema de ecuaciones utilizando el método de Jacobi. Emplear el vector inicial de x 0 = 0 .
− − − +
6 x1
x1 3 x1
x1
x2 10 x2 2 x2
x2
− + + +
x3 2 x3 8 x3
x3
+ − − −
4 x4
x4 x4 5 x4
= 17 = − 17 = 19 = − 14
Al despejar las incógnitas correspondientes se tiene. x1
=
x3
# 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
x1 0 2.833333 1.645833 0.756528 0.959948 1.073512 1.006483 0.986458 1.000805 1.002851 0.999591 0.999489 1.000145 1.000090 0.999962 0.999986 1.000009 1.000002 0.999998 1.000000 1.000000
=
17 − ( − x2 − x3 + 4 x4 ) 6 19 − (3 x1 − 2 x2 − x4 )
x2 0 1.700000 2.178333 1.863917 1.942440 2.018098 2.005556 1.994260 1.999071 2.001116 2.000022 1.999758 2.000017 2.000046 1.999991 1.999992 2.000003 2.000001 1.999999 2.000000 2.000000
8 x3
0 2.375000 2.087500 2.825104 3.055073 2.986768 2.975894 3.000917 3.003342 2.999007 2.999290 3.000233 3.000104 2.999937 2.999984 3.000014 3.000001 2.999997 3.000000 3.000001 3.000000
x 4 0 2.800000 4.181667 3.982333 3.889110 3.991492 4.015676 3.997587 3.996327 4.000643 4.000595 3.999781 3.999896 4.000053 4.000014 3.999987 3.999998 4.000003 4.000000 3.999999 4.000000
− 17 − ( x1 + 2 x3 − x4 ) − 10 − 14 − ( x1 + x2 + x3 ) x4 = −5
x2
=
Ex1
Ex 2
Ex3
Ex4
100 72.151899 117.550945 21.190747 10.578776 6.659766 2.030015 1.433584 0.203982 0.326059 0.010259 0.065556 0.005505 0.012786 0.002459 0.002301 0.000752 0.000384 0.000193 0.000056
100 21.958684 16.868601 4.042524 3.748981 0.625399 0.566434 0.240665 0.102221 0.054703 0.013216 0.012983 0.001409 0.002727 0.000028 0.000553 0.000064 0.000104 0.000024 0.000018
100 13.772455 26.108919 7.527439 2.286907 0.365414 0.833855 0.080719 0.144546 0.009464 0.031418 0.004312 0.005552 0.001578 0.000983 0.000415 0.000150 0.000101 0.000020 0.000022
100 33.041052 5.005441 2.397042 2.565018 0.602230 0.452505 0.031519 0.107896 0.001219 0.020349 0.002879 0.003930 0.000967 0.000675 0.000273 0.000108 0.000067 0.000014 0.000015
49
Método de Gauss-Seidel.
Este método trabaja de manera similar al método de Jacobi, ya que realizan los mismos despejes. La diferencia consiste en que en el proceso iterativo, cada una de las aproximaciones de cada variable que se calcula se sustituye inmediatamente en el cálculo de la siguiente variable en esa misma iteración. De esta manera la convergencia es más rápida. Ejemplo Resolver el siguiente sistema de ecuaciones utilizando el método de GaussSeidel. Emplear el vector inicial de x 0 = 0 .
− − − +
6 x1
x1 3 x1
x1
x2 10 x 2 2 x 2
x2
− + + +
x3 2 x3 8 x3
x3
+ − − −
4 x 4
x4 x4 5 x4
= 17 = − 17 = 19 = − 14
Al despejar las incógnitas correspondientes se tiene. x1
=
x3
# 0 1 2 3 4 5 6 7 8 9 10 11
x1 0 2.83333333 0.71527778 1.03040509 0.99613069 1.00039613 0.99995356 1.00000466 0.99999948 1.00000005 0.99999999 1
=
17 − ( − x2 − x3 + 4 x4 ) 6 19 − (3 x1 − 2 x2 − x4 )
x 2 0 1.98333333 1.72069444 2.02378356 1.99524565 2.00042108 1.99993764 2.00000561 1.99999926 2.00000007 1.99999999 2
8 x3
0 1.80833333 3.05256944 2.98175752 3.00116106 2.99977015 3.00001651 2.99999735 3.0000002 2.99999997 3 3
− 17 − ( x1 + 2 x3 − x4 ) − 10 − 14 − ( x1 + x2 + x3 ) x4 = −5
x2
=
Ex1 x 4 0 4.125 100 3.89770833 296.116505 4.00718924 30.582857 3.99850748 3.440754 4.00011747 0.426375 3.99998154 0.044260 4.00000153 0.005111 3.99999979 0.000519 4.00000002 0.000058 4 0.000006 4 0.000001
Ex 2
Ex3
Ex4
100 15.263540 14.976360 1.430296 0.258717 0.024173 0.003399 0.000317 0.000040 0.000004 0.000000
100 40.760288 2.374838 0.646534 0.046367 0.008212 0.000639 0.000095 0.000008 0.000001 0.000000
100 5.831418 2.732112 0.217125 0.040249 0.003398 0.000500 0.000043 0.000006 0.000001 0.000000
50
Los métodos de Jacobi y Gauss-Seidel convergerán si en la matriz de coeficientes el valor absoluto de cada elemento de la diagonal principal es mayor que la suma de los valores absolutos de todos los demás electos de la misma fila y columna. Entonces se asegura convergencia si: n
∑
>
aii
i= 1 i ≠ j
aij
para
1 ≤ j ≤ n
aij
para
1≤ i ≤ n
Y aii
>
n
∑
j = 1 j ≠ i
Ejemplo Aplicar el criterio de convergencia para los métodos de Jacobi y Gauss-Seidel.
+ − + +
x1 x1 5 x1
x1
− + − +
6 x2
x2 x2 x2
− − − +
x3 8 x3
x3 x3
= = = =
x4 4 x4
x4 6 x4
6 7 0 30
Aplicando el criterio de convergencia se tiene. x1 x1 5 x1
x1
+ − + +
6 x2
x2 x2 x2
− + − +
x3 8 x3
x3 x3
− − − +
x4 4 x4
x4 6 x4
= = = =
6 7 0 30
+ −1+ −1= 3 − 1 > 1 + 8 + − 4 = 13 − 1> 5 + − 1+ −1 = 7 6 > 1+ 1+ 1= 3 1
>
6
Reacomodando y aplicando el criterio de convergencia. 5 x1
x1 x1 x1
+ + − +
x2 6 x2
x2 x2
− − + +
x3 x3 8 x3
x3
− − − +
x4 x4 4 x4 6 x4
= = = =
0 6 7 30
> 1+ − 1+ 6 > 1+ − 1+ 8 > 1+ − 1+ 6 > 1+ 1+ 5
−1= 3 −1= 3 −4=6 1= 3
51
Normas de Vector y Matrices
Norma 1
=
V i
n
∑
ai
i= 1
3 − 0.1 − 0.2 7 − 0.3 A = 0.1 0.3 − 0.2 10 V 1
=
3+
V 2
=
0.1 + 7
V 3
=
0.3 +
V 1 = V 2 V 3
− 0.11 + − 0.2 = + − 0.3 =
− 0.2 +
10
33
7.4
= 10.5
Norma 2 V i V 1
2
=
(3) 2
+ (− 0.1) 2 + (− 0.2) 2 =
V 1
2
=
(0.1) 2
+
V 1
2
=
(0.3) 2
+ (− 0.2) 2 +
(7 ) 2
+ (− 0.3) 2 = (10) 2
2
=
n
∑
ai
2
i= 1
3.008321
7.007139
=
10.00649
Norma infinito V i
V 1
∞
=
3
V 2
∞
=
7
V 3
∞
=
10
∞
=
max{ a i , i
= 1,2,3,, n }
52
Número de condición
Sea A una matriz no singular (determinante diferente de cero) de n × n y E otra matriz no singular de n × n muy pequeña (de valores muy pequeños). ¿Qué tan pequeña debe de ser E para que la matriz perturbada A + E sea también no singular (que tenga inversa), y que tanto difiere A − 1 de ( A + E ) − 1 ? La inversa calculada de A es muy común que se encuentre muy cerca de la matriz ligeramente perturbada A + E . Sin embargo, este resultado no garantiza la precisión de A − 1 y ( A + E ) − 1 pueden diferir significativamente, entonces se dice que dicha matriz ( A + E ) − 1 esta mal condicionada a la inversión. Existe un número de condición que mide el grado de condicionamiento de una matriz y esta dado por: cond [ A] = A
∞
×
A − 1
∞
Si el número de condición es grande, entonces A − 1 es sensible a pequeñas perturbaciones, y por lo tanto la inversa calculada se encuentra mal condicionada Para calcular el número de condición de la matriz debemos de normalizar la matriz para que su mayor elemento por vector sea 1 Si cond [ A] es cercano a 1, la matriz esta bien condicionada.
53
Ejemplo Encuentre el número de condición de:
1 A = 12 13
1 4 1 5
1 2
1 3
1 3 1 4
Se normaliza la matriz para que el elemento por renglón sea máximo 1. Normalizando A se tiene
1 A = 1 1
∞
=
2 3 3 4
∑ = 1.83333 ∑ = 2.16667 ∑ = 2.35000
1 2 3 5 1 3
n ∞ = Max ∑ i= 1
Obteniendo la norma infinito A A
1 2
aij
Max {1.83333,2.16667,2.35000}
A
∞
=
2.35000
La inversa de la matriz normalizada A es
9 − 18 10 A − 1 = − 36 96 − 60 30 − 90 60 A
−1
∑ = 37.0 ∑ = 192 ∑ = 180
9 − 18 10 = − 36 96 − 60 30 − 90 60 A
∞
=
Max { 37,192,180} = 192
Obteniendo el número de condición tenemos que: Cond [ A]
=
A
∞
×
A − 1
∞
Cond [ A] = (2.35) × (192) = 451.2
Con lo cual se observa que la matriz A esta mal condicionada a pequeñas perturbaciones
54
Mínimos Cuadrados
Si se tiene un sistema sobredeterminado del estilo
=
A n× m x m× n
b n× m
Si n > m por lo tanto existe m error dado por e = b − A xˆ
donde xˆ es el vector de soluciones estimado El error E =
n
∑
ei
2
=
e T e
i= 1
Donde E es un escalar. El vector de soluciones estimado es xˆ = ( AT A) − 1 AT b
Donde ( AT A) − 1 AT es llamada pseudoinversa Monroe Penrose El error mínimo se encuentra E min
=
eT e = bT b − bT A xˆ
Ejemplo Realice un programa que encuentre el estimado de xˆ , así mismo que proporcione el error mínimo E min para el siguiente sistema sobredeterminado. a a
− −
3b 2b
+ +
9c 4c
a a a
+ +
3b 4b
+ +
9c 16c
= = = = =
18 10 2 2 5
55
Unidad IV Aproximación funcional e interpolación.
A menudo se proporcionan datos mediante un conjunto de puntos discretos. Sin embargo a veces se requieren estimaciones de puntos entre esos valores discretos. Repaso de estadística. N
Media.
Suma de cuadrados.
∑ y
i
y
= µ = µ ( y) = E [ y ] =
S t =
N
∑ ( y
−
i
i= 1
N
y) 2
i= 1
N
Varianza.
Desviación estándar. Suma del error cuadrático medio.
S t
σ 2
=
S y
= σ =
S r
=
=
N − 1
∑
i= 1
N − 1
N − 1
=
C v
∑ e = ∑ ( y − a i
Error estándar del estimado.
S y / x
S y y
i
0
−
a1 xi )
* 100%
S r
=
n− 2 n
r =
2
i= 1
n
Coeficiente de correlación.
2
= σ 2
N
2
i= 1
Coeficiente de varianza.
( yi − y ) 2
S t
N
2
N N ∑ yi − ∑ yi i = 1 = i= 1 N ( N − 1) N
2
r
i
i
i
n
∑ x
2 i
i= 1
=
i= 1
2
n
n
∑ x y − ∑ x ∑ y i= 1
=
r 2
n
n − ∑ xi i = 1
2
n
n
i
i= 1
∑ y i= 1
2 i
n − ∑ yi i = 1
S t − S r S t
Ajuste perfecto cuando S r = 0 y r = r 2 = 1 .
56
Aproximación por mínimos cuadrados en una recta.
La forma más simple de una aproximación por mínimos cuadrados es el ajuste de una línea recta a un conjunto de parejas de datos observadas. 12
y
11
y = a0
10
+
a1 x + e
8
10
9 8 7 6 5 4 3 2
x 0
2
4
6
12
14
16
18
20
La expresión matemática de una línea recta es y = a 0 + a1 x + e donde a0 y a1 son coeficientes que representan la intersección con el eje de las abscisas y la pendiente respectivamente y e es el error o residuo entre el modelo y las observaciones. Donde a0 y a1 vienen dadas por:
n n n∑ xi yi − ∑ xi ∑ yi i= 1 i = 1 i = 1 a1 = 2 n n 2 n∑ xi − ∑ xi i= 1 i = 1 n
a0
= y −
a1 x
57
Ejemplo. Ajustar a una línea recta los valores de x y y . Calcular la desviación estándar, el error estándar del estimado y el coeficiente de correlación. 0.0 1.0 2.0 3.0 4.0 5.0 6.0 7.0 8.0 9.0 9.1 7.3 3.2 4.6 4.8 2.9 5.7 7.1 8.8 10.2
x y
Obteniendo las sumas xi
xi2
yi
0 1 2 3 4 5 6 7 8 9
9.1 7.3 3.2 4.6 4.8 2.9 5.7 7.1 8.8 10.2 yi = 63.7
∑ x = 45 ∑ i
yi2
0 1 4 9 16 25 36 49 64 81 xi2 = 285
∑
∑
82.81 53.29 10.24 21.16 23.04 8.41 32.49 50.41 77.44 104.04 yi2 = 463.33
xi yi
0 7.3 6.4 13.8 19.2 14.5 34.2 49.7 70.4 91.8
∑ x y i
i
=
307.3
De donde a1 y a0 n n n∑ xi yi − ∑ xi ∑ yi i= 1 i = 1 i = 1 = a1 = 2 n n 2 n∑ xi − ∑ xi i= 1 i = 1 n
10 × (307.3) − ( 45) × (63.7) 10 × ( 285) − ( 45) 2
n
a0
= y −
a1 x
= y −
a0
∑
x =
=
a1 x
=
0.250303
n
xi
i= 1
n
∑ y
i
=
4 .5
y
=
i= 1
n
=
6.37
6.37 - (0.250303) × (4.5) = 5.2436364
Por lo tanto la ecuación el ajuste con mínimos cuadrados es: yˆ = a 0
+
a1 x = 5.2436364 + 0.250303 x
La correlación es n
n r =
2
r
=
∑
xi y i
−
i= 1
n
∑ ∑ y x i
i= 1
2
n n ∑ xi2 − ∑ xi i= 1 i = 1 n
n
i
i= 1
2
n n∑ y i2 − ∑ y i i= 1 i = 1 n
=
10 × (307.3) − ( 45) × (63.7) 10 × (285) − ( 45) 2 10 × (463.33) − (63.7) 2
=
0.2996601
58
Interpolación lineal.
Con frecuencia se tienen que estimar valores intermedios entre valores conocidos. La forma mas simple de interpolación es conectar dos puntos con una línea recta, este método es llamado interpolación lineal. I n t e r p o la c i o n L i n e a l
f ( x )
f ( x) = f ( x0 ) +
f ( x1 ) − f ( x0 ) x1 − x 0
( x − x0 )
f ( x1 ) f ( x)
f ( x 0 )
x x
x 0
x1
La forma de una ecuación lineal esta dada por f ( x) = a0 + a1 x1 Donde para encontrar la aproximación mediante una línea recta, usamos triángulos semejantes y se obtiene f ( x) − f ( x0 ) x − x0
=
f ( x1 ) − f ( x0 ) x1 − x0
de donde es fácil despejar a f ( x) . f ( x ) = f ( x 0 ) +
f ( x1 ) − f ( x 0 ) x1 − x 0
( x − x 0 )
donde f ( x) representa la interpolación del polinomio mediante una línea recta. Ejemplo: Estimar el Ln(2) mediante interpolación lineal tomando los puntos de Ln (1) = 0 y Ln (6) = 1.791759 .
Después repita el procedimiento pero usando un intervalo más
pequeño de Ln (1) = 0 a Ln (4) = 1.386294 . El valor real de Ln (2) = 0.693147 .
= x1 = x0
1 f ( x 0 ) = 0 6 f ( x1 ) = 1.791759
f ( x1 ) − f ( x 0 )
f ( 2) = f ( x 0 ) +
Ev
=
vv
− vv
va
x1 − x 0
=
( x − x0 ) = 0 +
0.693147 − 0.358352 0.693147
1.791759 − 0
× 100 =
6− 1
(2 − 1) = 0.358352
48.30%
59
Interpolación cuadrática.
La forma general de una Interpolación cuadrática es: f ( x ) = b0 + b1 ( x − x0 ) + b2 ( x − x0 )( x − x1 ) f ( x )
In t e r p o la c i ó n C u a d r a tic a
f ( x) = a0 + a1 x + a2 x 2 f ( x2 )
f ( x1 )
f ( x 0 )
x0
x1
x2
x
Expandiendo el polinomio se obtiene. f ( x ) = b0 + b1 x − b1 x0 + b2 x 2 + b2 x0 x1 − b2 x x0 − b2 x x1
Agrupando términos podemos representar al polinomio de la forma: f ( x ) = a 0
+
a1 x + a 2 x 2
de donde tenemos que: a0
=
b0
−
b1 x 0
+
b2 x 0 x1
a1
=
b1 − b2 x0
−
b2 x1
a2
=
b2
Los coeficientes b0 , b1 , b2 y se obtienen mediante diferencias divididas. b0
=
b1
=
f ( x0 ) f ( x1 ) − f ( x0 ) x1 − x0
f ( x2 ) − f ( x1 ) b2
=
x2 − x1
−
f ( x1 ) − f ( x0 ) x1 − x0
x2 − x0
Con lo cual se obtiene el polinomio de interpolación cuadrático.
60
Ejemplo. Ajustar a tres puntos dados para obtener Ln(2) , usando un polinomio de segundo orden de donde los puntos a interpolar son: x0
=
1 f ( x0 ) = 0
x1
=
4 f ( x1 ) = 1.386294
x2
=
6 f ( x2 ) = 1.791759
Obteniendo los coeficientes b0 , b1 , b2 , tenemos que b0
=
b1
=
f ( x 0 ) = 0
f ( x1 ) − f ( x0 ) x1 − x0 f ( x 2 ) − f ( x1 )
b2
=
x 2 − x1
= −
1.386294 − 0 4− 1
=
0.462098
f ( x1 ) − f ( x0 ) x1 − x0
1.791759 − 1.386294
=
x2 − x0
6− 4
6− 1
−
1.386294 − 0 4− 1
= − 0.051873
Obteniendo los coeficientes del polinomio a0
=
b0
−
b1 x0
+
b2 x0 x1
a1
=
b1
−
b2 x0
−
b2 x1
a2
=
b2
=
= 0−
(0.462098)(1) + ( − 0.051873)(1)(4) = -0.669591
(0.462098) − (− 0.051873)(1) − ( − 0.051873)(1) = 0.721464
= − 0.051873
Donde el polinomio queda f ( x) = a 0
+
a1 x + a 2 x 2
=
-0.669591 + 0.721464 x − 0.051873x 2
Evaluando el polinomio para f ( x = 2) tenemos que f ( x = 2) = -0.669591 + 0.721464 x − 0.051873x 2
=
0.565844
donde el error verdadero es: Ev
=
V v − V a V v
× 100 =
0.693147 - 0.565844 0.693147
× 100 =
18.3659%
61
Interpolación de Polinomios de Newton.
La Formula general para la interpolación de Newton para un polinomio de n orden. f n ( x) = b0 + b1 ( x − x0 ) + b2 ( x − x0 )( x − x1 ) +
+ bn ( x − x 0 )( x − x1 ) ( x − x n − 1 )
(1)
Para un polinomio de n-ésimo orden se requiere n + 1 puntos. Donde: b0 b1 b2 b3
= f ( x0 ) = f ( x1 , x0 ) = f ( x2 , x1 , x0 ) = f ( x3 , x2 , x1 , x0 )
bn
=
(2)
f ( x n , x n − 1 ,, x1 , x0 )
Donde las evaluaciones puestas entre paréntesis son diferencias divididas finitas. f ( x i , x j ) =
f ( xi ) − f ( x j )
(3)
xi − x j
La segunda diferencia dividida: f ( xi , x j , xk ) =
f ( xi , x j ) − f ( x j , x k )
(4)
xi − x k
La n-ésima diferencia dividida es: f ( x n , x n − 1 , , x1 , x0 ) =
f ( x n , x n− 1 , , x2 , x1 ) − f ( xn − 1 , x n− 2 , , x1 , x0 ) x n − x0
(5)
Estas diferencias se utilizan para evaluar los coeficientes b0 , b1 , b2 ,, bn los cuales se utilizan para obtener el polinomio de interpolación, el cual es conocido como el polinomio de interpolación por diferencias divididas de Newton. f n ( x) = f ( x0 ) + ( x − x0 ) f ( x1 , x0 ) + ( x − x0 )( x − x1 ) f ( x 2 , x1 , x0 )
+ + i x i 1 x0 2 x1 3 x 2 4 x3 5 x 4
f ( xi ) f ( x 0 ) f ( x1 ) f ( x 2 ) f ( x3 )
( x − x0 )( x − x1 ) ( x − xn − 1 ) f ( x n , x n − 1 , , x1 , x0 )
Primero f ( x1 , x 0 )
f ( x 2 , x1 ) f ( x3 , x 2 ) f ( x 4 , x3 )
Segundo f ( x 2 , x1 , x 0 ) f ( x 3 , x 2 , x1 ) f ( x 4 , x3 , x 2 )
Tercero f ( x3 , x 2 , x1 , x 0 )
(6)
Cuarto f ( x 4 , x3 , x 2 , x1 , x0 )
f ( x 4 , x3 , x 2 , x1 )
f ( x 4 )
62
Ejemplo. Utilice la interpolación de polinomios de Newton para interpolar los siguientes puntos a un polinomio de tercer orden para estimar Ln(2) . x0
=1
f ( x 0 ) = 0
x1
=
4 f ( x1 ) = 1.386294
x2
=
6 f ( x 2 ) = 1.791759
x3
=
5 f ( x3 ) = 1.609438
f ( xi )
xi xi
1 4 6 5
x0 x1 x2 x3
f ( xi , xi − 1 )
0 0.46209812 1.38629436 0.20273255 1.79175947 0.18232156 1.60943791
f ( xi , xi − 1 , xi − 2 )
f ( xi , xi − 1 , xi − 2 , xi − 3 )
-0.05187311 -0.02041100
0.00786553
Donde las diferencias divididas son: f ( x 0 ) = 0 f ( x1 , x 0 ) = 0.46209812 f ( x 2 , x1 , x 0 ) = -0.05187311 f ( x3 , x 2 , x1 , x0 ) = 0.00786553
Y el polinomio resultante queda: f 3 ( x ) = f ( x0 ) + ( x − x0 ) f ( x1 , x 0 ) + ( x − x 0 )( x − x1 ) f ( x 2 , x1 , x0 ) + ( x − x 0 )( x − x1 )( x − x 2 ) f ( x 3 , x 2 , x1 , x 0 )
f 3 ( x) = (0) + ( x − 1)(0.46209812) + ( x − 1)( x − 4)(-0.05187311) + ( x − 1)( x − 4)( x − 6)(0.00786553)
f 3 (2) = (0) + (2 − 1)(0.46209812) + (2 − 1)(2 − 4)(-0.05187311) + (2 − 1)(2 − 4)(2 − 6)(0.00786553)
f 3 ( 2) = 0.62876858
Donde el error verdadero es Ev
=
V v
− V a V v
× 100 =
0.693147 - 0.62876858 0.693147
× 100 =
9.287868
63
Interpolación de polinomios de Lagrange.
El polinomio de interpolación de Lagrange se puede obtener de manera directa a partir de la formulación del polinomio de Newton. Haremos esto únicamente para el caso del polinomio en primer orden. Para obtener la forma de Lagrange, reformulamos las diferencias divididas. Por ejemplo, la primera diferencia dividida Se puede reformular como. f ( x1 ) − f ( x0 )
f ( x1 , x0 ) =
(1)
x1 − x0
La cual es referida como f ( x1 , x0 ) =
f ( x 0 ) x0 − x1
+
f ( x1 )
(2)
x1 − x 0
Por ultimo, al agrupar términos similares y simplificar se tiene la forma del polinomio de Lagrange f ( x) =
x − x1 x0 − x1
f ( x0 ) +
x − x0 x1 − x0
f ( x1 )
(3)
La interpolación de polinomios de Lagrange es simplemente una reformulación del polinomio de Newton que evita el cálculo por diferencias divididas. Se puede expresar de manera concisa como f ( x) =
n
∑ L ( x) f ( x ) i
i= 0
(4)
i
Donde Li ( x) =
n
Π j = 0 j ≠ i
x − x j
(5)
xi − x j
Donde Π designa el producto de por ejemplo cuando n = 1 es f ( x) =
x − x1 x0 − x1
f ( x0 ) +
x − x0 x1 − x0
(6)
f ( x1 )
Cuando n = 2 es f ( x) =
( x − x1 )( x − x 2 ) ( x0 − x1 )( x0 − x 2 )
f ( x0 ) +
( x − x0 )( x − x 2 ) ( x1 − x0 )( x1 − x2 )
f ( x1 ) +
( x − x0 )( x − x1 ) ( x2 − x0 )( x 2 − x1 )
f ( x 2 ) (7)
64
Cuando n = 3 ( x − x1 )( x − x2 )( x − x3 )
f ( x) =
( x0 − x1 )( x0 − x2 )( x0 − x3 )
+
( x − x0 )( x − x1 )( x − x3 ) ( x2 − x0 )( x2 − x1 )( x2 − x3 )
f ( x0 ) + f ( x2 ) +
( x − x0 )( x − x2 )( x − x3 ) ( x1 − x0 )( x1 − x2 )( x1 − x3 )
f ( x1 )
( x − x0 )( x − x1 )( x − x2 ) ( x3 − x0 )( x3 − x1 )( x3 − x2 )
(8) f ( x3 )
Para los casos en donde el orden del polinomio se desconozca, el método de Newton tiene ventajas debido a que profundiza en el comportamiento de las diferentes fórmulas de orden superior. En general puede integrarse fácilmente en los cálculos de Newton ya que la aproximación usa una diferencia dividida. De esta forma, desde el punto de vista de cálculo, a menudo, se prefiere el método de Newton. Ejemplo. Utilice la interpolación de polinomios de Lagrange para interpolar los siguientes puntos a un polinomio de primero y segundo orden para estimar Ln(2) ,
= 1 f ( x0 ) = 0 x1 = 4 f ( x1 ) = 1.386294 x2 = 6 f ( x 2 ) = 1.791759 Para n = 1 sustituyendo en la ecuación los punto se tiene x − x0 x − x1 x − 4 x − 1 f ( x) = f ( x0 ) + f ( x1 ) f ( x ) = (0) + (1.386294) x0 − x1 x1 − x0 1− 4 4− 1 x0
Para x = 2 f (2) =
2− 4 1− 4
2− 1
(0) +
(1.386294) = 0.462098
4− 1
Donde el error verdadero es Ev
=
V v
− V a V v
× 100 =
0.693147 - 0.462098 0.693147
× 100 =
33.3333%
Para n = 2 f ( x) = f ( x) =
( x − x1 )( x − x 2 ) ( x0 − x1 )( x0 − x 2 ) ( x − 4)( x − 6) (1 − 4)(1 − 6)
Para x = 2
f ( x0 ) +
(0) +
( x − x0 )( x − x2 ) ( x1 − x0 )( x1 − x 2 )
( x − 1)( x − 6) ( 4 − 1)(4 − 6)
f ( x1 ) +
(1.386294) +
( x − x0 )( x − x1 ) ( x2 − x0 )( x2 − x1 )
( x − 1)( x − 4) (6 − 1)(6 − 4)
f ( x 2 )
(1.791759)
f ( 2) = 0.565844
Donde el error verdadero es
Ev
=
18.3659%
65
Trazador de primer orden.
La conexión más simple entre dos puntos es por medio de una línea recta. Los trazadores de primer orden para un grupo de datos ordenados pueden definirse como un conjunto de funciones lineales. I n t e r p o l a c i o n S e g m e n t a r ia
f ( x) f ( xn )
f ( x) = f ( xn − 1 ) + m n − 1 ( x − xn − 1 )
f ( xn− 1)
f ( x2 ) f ( x3 )
f ( x) = f ( x0 ) + m 0 ( x − x0 )
f ( x) = f ( x 2 ) + m 2 ( x − x 2 )
f ( x0 ) f ( x ) = f ( x1 ) + m1 ( x − x1 )
f ( x1 ) x 0
x 1
x 2
x
x 3
xn− 1 x n
Donde: mi
es la pendiente de la línea recta que conecta a los puntos.
mi
=
f ( xi + 1 ) − f ( xi ) xi + 1 − xi
f ( x) = f ( x0 ) + m0 ( x − x 0 ) f ( x) = f ( x1 ) + m1 ( x − x1 ) f ( x) = f ( x2 ) + m2 ( x − x2 )
≤ x ≤ x1 x1 ≤ x ≤ x2 x 2 ≤ x ≤ x3 x0
f ( x) = f ( xn − 1 ) + mn − 1 ( x − xn − 1 )
x n − 1
≤ x ≤
xn
66
Ejemplo. Ajuste los siguientes puntos con segmentarías de primer orden. Evaluar la función en x = 5 . x0
=
3.0
f ( x 0 ) = 2.5
x1
=
4.5
f ( x1 ) = 1.0
x2
=
7.0
f ( x 2 ) = 2.5
x3
=
9.0
f ( x 3 ) = 0.5
Obteniendo las pendientes tenemos m0
=
m1
=
m2
=
f ( x1 ) − f ( x0 ) x1 − x0 f ( x2 ) − f ( x1 ) x2 − x1 f ( x3 ) − f ( x 2 ) x3 − x2
= = =
1.0 − 2.5 4.5 − 3.0 2.5 − 1.0 7.0 − 4.5 0.5 − 2.5 9.0 − 7.0
= −1 =
0.6
= −1
Donde la interpolación segmentaría queda como f ( x) = 2.5 − 1.0( x − 3.0)
3.0 ≤ x ≤ 4.5
f ( x) = 1.0 + 0.6( x − 4.5)
4.5 ≤ x ≤ 7.0
f ( x) = 2.5 − 1.0( x − 7.0)
7.0 ≤ x ≤ 9.0
Evaluando en x = 5 tomamos la función f ( x) = 1.0 + 0.6( x − 4.5) f (5) = 1.0 + 0.6(5 − 4.5) = 1.3
67
Trazador Cúbico.
El objetivo de los trazadores cúbicos es obtener un polinomio de tercer orden para cada intervalo entre los nodos, como en. f i ( x) = ai x 3
+
bi x 2
+
ci x + d i
Para poder obtener trazadores cúbicos en un intervalo se aplica la siguiente ecuación. f i ( x) =
f ' ' ( xi − 1 ) 6( xi − xi − 1 )
( xi − x) 3
f ( xi ) + − − x x ( ) i i − 1
+
f ' ' ( xi ) 6( xi − xi − 1 )
( x − xi − 1 ) 3
f ' ' ( xi )( xi − xi − 1 ) 6
( x − xi − 1 )
f ( xi − 1 ) + − x x ( ) − i i− 1
f ' ' ( xi − 1 )( xi − xi − 1 )
( xi − x)
6
(I)
Donde: f ' ' es la segunda derivada al final de cada intervalo, las cuales se desconocen. Para poder evaluar estas incógnitas se utiliza la siguiente ecuación. ( xi − xi − 1 ) f ' ' ( xi − 1 ) + 2( xi + 1 − xi − 1 ) f ' ' ( xi ) + ( xi + 1 − xi ) f ' ' ( x i + 1 ) = 6 xi + 1 − xi
[ f ( xi + 1 ) −
f ( xi )] +
6 xi − x i − 1
[ f ( xi − 1 ) −
f ( xi )]
( II )
Ejemplo. Ajuste los siguientes puntos con trazadores cúbicos. Evaluar la función en x = 5 x0
=
3.0
f ( x 0 ) = 2.5
x1
=
4.5
f ( x1 ) = 1.0
x2
=
7.0
f ( x 2 ) = 2.5
x3
=
9.0
f ( x 3 ) = 0.5
Utilizando la ecuación ( II ) para generar un conjunto de ecuaciones simultáneas. Tomando i = 1 ( xi − xi − 1 ) f ' ' ( xi − 1 ) + 2( xi + 1 − xi − 1 ) f ' ' ( xi ) + ( xi + 1 − xi ) f ' ' ( x i + 1 ) = 6 xi + 1 − xi
[ f ( xi + 1 ) −
f ( xi )] +
6 xi − x i − 1
[ f ( xi − 1 ) −
(4.5 − 3.0) f ' ' (3.0) + 2(7.0 − 3.0) f ' ' (4.5) + (7.0 − 4.5) f ' ' (7.0) =
f ( xi )] 6
7.0 − 4.5
[ 2.5 − 1.0] +
6 4.5 − 3.0
[ 2.5 − 1]
1.5 f ' ' (3.0) + 8.0 f ' ' (4.5) + 2.5 f ' ' (7.0) = 9.6
68
Tomando i = 2 (7.0 − 4.5) f ' ' (4.5) + 2(9.0 − 4.5) f ' ' (7.0) + (9.0 − 7.0) f ' ' (9.0) =
2.5 f ' ' ( 4.5) + 9.0 f ' ' (7.0) + 2.0 f ' ' (9.0) =
6 9.0 − 7.0
[ 0.5 −
2.5] +
6 7 − 4.5
[1.0 −
2.5]
− 9.6
de donde nos queda un sistema de ecuaciones simultaneas y las evaluaciones de f ' ' (9.0) y f ' ' (3.0) decimos
que son igual a cero dado que no existen puntos suficientes
para encontrar las derivadas 1.5 f ' ' (3.0) + 8.0 f ' ' (4.5) + 2.5 f ' ' (7.0) = 9.6 2.5 f ' ' ( 4.5) + 9.0 f ' ' (7.0) + 2.0 f ' ' (9.0) =
− 9.6
Con lo cual el sistema de ecuaciones queda como sigue 8.0 f ' ' (4.5) + 2.5 f ' ' (7.0) = 9.6 2.5 f ' ' ( 4.5) + 9.0 f ' ' (7.0) =
8.0 2.5
− 9.6
2.5 f ' ' ( 4.5)
9.6 = 9.0 f ' ' (7.0) − 9.6
Resolviendo el sistema tenemos que
f ' ' (4.5) 1.679087 f ' ' (7.0) = − 1.533080 Los valores de f ' ' (4.5) y f ' ' (7.0) se sustituyen en la ecuación ( I ) para obtener los trazadores cúbicos de primer intervalo Tomando i = 1 tenemos que f 1 ( x) =
f ' ' ( x0 ) 6( x1 − x0 )
( x1 − x) 3
f ( x1 ) + − ( ) − x x 1 0
+
f ' ' ( x) 6( x1 − x0 )
( x − x0 ) 3
f ( x0 ) + − ( ) − x x 1 0
f ' ' ( x0 )( x1 − x0 )
( x1 − x)
6
f ' ' ( x1 )( x1 − x0 ) 6
( x1 − x0 )
Sustituyendo f 1 ( x) =
1.679087 6(4.5 − 3.0)
( x − 3.0) 3
2.5 1.0 x ( 4 . 5 ) + − + (4.5 − 3.0) − (4.5 − 3.0)
f 1 ( x) = 0.18656522( x − 3.0) 3
+ 1.6666(4.5 − x) +
(1.679087 )(4.5 − 3.0) 6
0.246894916( x − 3.0)
(x −
3.0)
3.0 ≤ x ≤ 4.5
Operaciones similares se pueden hacer para encontrar el segundo y tercer intervalo f 2 ( x) = 0.111939(7.0 − x) 3
− 0.102205( x − 4.5) 3 − 0.299620(7.0 − x) + 1.638783( x − 4.5)
f 3 ( x) =
− 0.127757(9.0 − x) 3 + 1.761027(9.0 − x) +
4.5 ≤ x ≤ 7.0 0.25( x − 7.0)
7.0 ≤ x ≤ 9.0
Sustituyendo x = 5 para obtener f 2 ( x) tenemos que f 2 (5) = 1.102180
69
Unidad V. Integración y diferenciación numérica.
La integración de una función dentro del ámbito de la ingeniería tiene tantas aplicaciones que es una herramienta indispensable. Una integral representa un área bajo la curva sobre el eje horizontal, acotada por un intervalo. La función a integrarse, en general deberá tener una de las tres formas siguientes. 1. Una función simple y continua tal como un polinomio, una función exponencial o una función trigonométrica. 2. Una función complicada y continua que es difícil o imposible de integrar directamente.
3. Una función tabulada en donde los valores de f ( x) se dan en un conjunto de puntos discretos, como es el caso, a menudo, de datos experimentales. Fórmulas o ecuaciones de Newton-Cotes.
Son esquemas de integración numérica donde se reemplaza una función complicada con una función aproximada o fácil de integrar. I =
b
b
a
a
∫ f ( x) dx ≅ ∫ f ( x) dx n
Donde f n ( x) es un polinomio de la forma: f n ( x) = a0 + a1 x + a2 x 2 + + an − 1 x n− 1 + an x n
Donde n es el orden del polinomio. f ( x)
f ( x) f (b )
f (b) f (a )
f ( a)
x a a
b
b x
Estimación de una integral mediante una línea recta.
Estimación de una integral mediante una parábola.
70
La integral se puede aproximar mediante una serie de polinomios aplicados por pedazos a la función o datos sobre segmentos de longitud constante. Se disponen de formas cerradas y abiertas de las ecuaciones de Newton-Cotes. Las formas cerradas son aquellas en las que se conocen los datos al inicio y al final del intervalo de la integración. Las formas abiertas son aquellas en las cuales los límites de integración se extienden más allá del intervalo de los datos conocidos. f ( x )
f ( x )
a
b
x
a
Forma cerrada
b
x
Forma abierta
Integración por el método trapezoidal.
Es la primera forma o método de integración de Newton-Cotes. La integral aproximada es: b
∫
I =
f ( x) dx
≅
f (a) + f (b) 2
a
(b − a )
Geométricamente el método trapezoidal es un equivalente a aproximar gráficamente el área de un trapezoide bajo la recta que una a f (a) y f (b) f ( x ) f (b) f (a)
a
b
x
El error aproximado está dado por: E a
= −
(b − a ) 2 12
b
∫ f ' '( x)dx a
71
Ejemplo. Utilice el método de integración trapezoidal para integrar numéricamente la siguiente función desde a = 0 y b = 0.8 . El valor verdadero es 1.640533. f ( x )
=
400 x 5
−
900 x 4
+
675 x 3 − 200 x 2
+
25 x + 0.2
Evaluando a y b en f ( x) se tiene a= 0
f ( a ) = 0.2
b = 0.8 f (b) = 0.232
Sustituyendo en los valores en la regla trapezoidal tenemos. f (a) + f (b)
b
I =
∫
f ( x) dx ≅
(b − a) ≅
2
a
(0.2) + (0.232) 2
(0.8 − 0) = 0.1728
Obteniendo el error verdadero y E a , por lo tanto E a es: .8
∫ f ' ' ( x)dx = − 48 0
Donde f ' ' ( x) = 8000 x 3 − 10800 x 2 + 4050 x − 400 E a
E v
=
(b − a ) 2
= − vv
12
− vv
va
b
∫ f ' '( x)dx = − a
× 100 =
(0.8 − 0) 2 12
× (− 48) =
1.640533 − 0.172800 1.640533
× 100 =
2.56
89.47%
72
Aplicación múltiple de la regla trapezoidal
Para mejorar la exactitud de la regla trapezoidal se divide el intervalo de integración de a a b en un número n de segmentos y se aplica el método en cada uno de los nuevos segmentos f ( x )
f ( x)
x 0
x 1
x 2
x
x 0
x 1
Para dos segmentos.
x 2
x 3
x
Para tres segmentos.
f ( x )
x 0
x 1
x 3
x 2
xn− 3
xn− 2
xn− 1
x n
x
Para n segmentos. Con lo cual se tiene que la regla trapezoidal múltiple es: b
I =
∫ f ( x) dx ≅
f ( x0 ) + 2
n− 1
∑ f ( x ) + f ( x ) i
n
i= 1
2n
a
(b − a )
De donde (b − a) es la anchura del intervalo de integración. Y
f ( x0 ) + 2
n− 1
∑ f ( x ) + f ( x ) i
i= 1
n
es la altura promedio del trapecio.
2n
Para calcular la anchura de los nuevos intervalos tenemos que: Y el error aproximado está dado por:
E a
=−
(b − a ) 2 12n 2
h=
b− a n
b
∫ f ' ' ( x)dx a
73
Ejemplo. Utilice el método de integración trapezoidal múltiple para integrar numéricamente la siguiente función desde a = 0 y b = 0.8 . Utilizando dos y tres segmentos. El valor verdadero es 1.640533 f ( x) = 400 x 5 − 900 x 4 + 675 x 3 − 200 x 2 + 25 x + 0.2
Para dos segmentos h=
b− a
0.8 − 0
=
n
2
=
0.4
=0 x1 = 0.4 x2 = 0.8
f ( x 0 ) = 0.2
x0
f ( x 2 ) = 0.232
f ( x 0 ) + 2
b
I =
f ( x1 ) = 2.456
∫
f ( x ) dx
≅
E v
12n 2
−
vv
=
i
b
∫ f ' ' ( x)dx = −
(0.8 − 0) 2 12 × 2 2
a
va
1.640533
(b − a ) =
(0.2) + 2 × ( 2.456) + (0.232) 2× 2
(0.8 − 0) = 1.0688
( − 48) = 0.64
1.640533 − 1.0688
× 100 =
vv
n
2n
(b − a) 2
=−
∑ f ( x ) + f ( x ) i= 1
a
E a
n− 1
× 100 =
34.85%
Para tres segmentos h=
b− a
0.8 − 0
=
n
3
0.266667
x0
=
0
f ( x 0 ) = 0.2
x1
=
0.266667
f ( x1 ) = 1.432724
x 2
=
0.533333
f ( x 2 ) = 3.487177
x3
=
0.8
f ( x 2 ) = 0.232
b
I =
=
∫ f ( x) dx =
(0.2) + 2 × (1.432724 + 3.487177) + (0.232) 2× 3
a
E a
E v
=− =
(b − a) 2 12n 2
vv
− vv
va
b
∫ f ' ' ( x)dx = − a
× 100 =
(0.8 − 0) 2 12 × 3 2
(− 48) = 0.284444
1.640533 − 1.369574 1.640533
(0.8 − 0) = 1.369574
× 100 =
16.51%
74
Regla de Simpson.
Una manera de mejorar la exactitud del método trapezoidal es usar polinomios de mayor orden para conectar los puntos. Por ejemplo, si existe un punto entre f (a) y f (b) , a la mitad, estos puntos se pueden conectar mediante una parábola.
Si hay dos puntos igualmente espaciados entre f (a ) y f (b) , los cuatro puntos se pueden conectar mediante un polinomio de tercer orden. A las ecuaciones que se utilizan para calcular las integrales bajo estos polinomios se conocen como reglas de Simpson. f ( x)
f ( x)
x 0
Simpson
x 1
1 3
x
x 2
x 0
(Parábolas)
Regla de Simpson
1
3
x 1
Simpson
x 2
3 8
x 3
x
(Cúbicas)
.
Utilizando un polinomio de segundo orden tenemos que la aproximación del área bajo la curva mediante tres puntos o una parábola esta dada por: b
I =
∫
f ( x) dx ≅
f ( x0 ) + 4 f ( x1 ) + f ( x 2 ) 6
a
(b − a)
Para calcular la anchura de los nuevos intervalos tenemos que: h=
b− a 2
Y el error aproximado está dado por: E a
=−
(b − a) 4 2880
b
∫ f
IV
( x) dx
a
75
Ejemplo Utilice el método de Simpson
1 3
para integrar numéricamente la siguiente función,
desde a = 0 y b = 0.8 . f ( x) = 400 x 5 − 900 x 4 + 675 x 3 − 200 x 2 + 25 x + 0.2
Obteniendo la anchura h=
b− a
0.8 − 0
=
n
=
2
0.4
Por lo tanto x0
=
0
f ( x 0 ) = 0.2
x1
=
0.4
f ( x1 ) = 2.456
x2
=
0.8
f ( x 2 ) = 0.232
b
I =
∫
f ( x) dx ≅
f ( x0 ) + 4 f ( x1 ) + f ( x2 ) 6
a
E v
E a
= =−
vv
−
va
vv
× 100 =
(b − a) 4 2880
1.640533 − 1.367467 1.640533
b
∫ f
IV
a
(b − a) =
( x) dx = E a
=−
6
(0.8 − 0) = 1.367467
× 100 = 16.64%
(0.8 − 0) 4 2880
(0.2) + 4(2.456) + (0.232)
( − 1920) = 0.273066
76
Regla de Simpson
1
3
de aplicación múltiple.
Utilizando un polinomio de segundo orden de manera múltiple tenemos que la aproximación del área bajo la curva mediante estos puntos esta dada por. b
I =
n− 1
f ( x0 ) + 4
∫ f ( x) dx ≅
n− 2
∑ f ( x ) + 2 ∑ f ( x ) + f ( x ) i
j
i = 1,3, 5
n
j = 2 , 4 , 6
3n
a
(b − a)
Para calcular la anchura de los nuevos intervalos tenemos que: h=
b− a n
Y el error aproximado está dado por: E a
= −
(b − a ) 4 180n
4
b
∫ f
IV
( x )dx
a
Para n = 2 tendríamos gráficamente. f ( x)
x 0
x 1
x 2
x 3
x 4
x
77
Ejemplo. Utilice el método de Simpson
1 3
de aplicación múltiple con n = 4 para integrar
numéricamente la siguiente función, desde a = 0 y b = 0.8 . f ( x) = 400 x 5 − 900 x 4 + 675 x 3 − 200 x 2 + 25 x + 0.2
Obteniendo la anchura b− a
h=
n
=
0.8 − 0 4
=
0.2
Por lo tanto x0
=
0
f ( x 0 ) = 0.2
x1
=
0.2
f ( x1 ) = 1.288
x2
=
0.4
f ( x 2 ) = 2.456
x3
=
0.6
f ( x 3 ) = 3.464
x4
=
0.8
f ( x 4 ) = 0.232
Aplicando le regla de simpson múltiple tenemos. f ( x0 ) + 4
b
I =
n− 1
∑ f ( x ) + 2 ∑ f ( x ) + f ( x ) i
∫ f ( x) dx ≅
E a
= =−
vv
−
va
vv
3n
× 100 =
(b − a) 4 180n 4
(b − a)
(0.2) + 4 × (1.288 + 3.464) + 2 × ( 2.456) + (0.232)
a
E v
n
j = 2 , 4 , 6
3n
a
I =
j
i = 1,3, 5
∫ f ( x) dx ≅ b
n− 2
1.640533 − 1.623467 1.640533
b
∫ f
IV
a
( x) dx =
−
(0.8 − 0) 4 180 × 4 4
(0.8 − 0) = 1.623467
× 100 = 1.04%
( − 1920) = 0.017066
78
3
Regla de Simpson
8
.
Utilizando un polinomio de tercer orden tenemos que la aproximación del área bajo la curva mediante cuatro puntos o una ecuación cúbica esta dada por: b
I =
∫ f ( x) dx ≅
f ( x0 ) + 3 f ( x1 ) + 3 f ( x2 ) + f ( x3 ) 8
a
(b − a)
Para calcular la anchura de los nuevos intervalos tenemos que: h=
b− a 3
Y el error aproximado está dado por: E a
= −
(b − a ) 4 6480
b
∫ f
IV
( x) dx
a
Ejemplo. Utilice el método de Simpson
3 8
para integrar numéricamente la siguiente función,
desde a = 0 y b = 0.8 . f ( x) = 400 x 5 − 900 x 4 + 675 x 3 − 200 x 2 + 25 x + 0.2
Obteniendo la anchura h=
b− a n
0.8 − 0
=
3
=
0.266667
Por lo tanto
=0 x1 = 0.266667 x 2 = 0.533333 x3 = 0.8
f ( x 0 ) = 0.2
x0
b
I =
∫
f ( x) dx ≅
f ( x1 ) = 1.432724 f ( x 2 ) = 3.487177 f ( x 2 ) = 0.232
f ( x0 ) + 3 f ( x1 ) + 3 f ( x2 ) + f ( x3 ) 8
a b
I =
∫
f ( x) dx ≅
(0.2) + 3 × (1.432724) + 3 × (3.487177) + (0.232) 8
a
E v
E a
= =−
vv
−
va
vv
× 100 =
(b − a) 4 6480
(b − a )
1.640533 − 1.519170 1.640533
b
∫ f
IV
a
( x) dx =
−
(0.8 − 0) 4 6480
× 100 =
(0.8 − 0) = 1.519170
7.3977%
(− 1920) = 0.121363
79
Diferenciación numérica
La diferenciación numérica, o aproximación numérica, es un método utilizado para evaluar las derivadas de funciones por medio de valores funcionales de puntos de datos discretos. Si se conocen los valores funcionales de dichos datos discretos, la función se puede expresar de una forma aproximada por medio de una interpolación polinomial. Por lo que, al diferenciar dicho polinomio, se pueden evaluar sus derivadas. Por definición la derivada de una función esta dada por: f ' ( x) = l im
f ( x + h) − f ( x)
h→ 0
h
Diferenciación hacia delante, hacia atrás y centrada
f ( x )
f ( x)
f ' ( x 0 )
f ' ( x 0 )
f ( x0 + h) f ( x 0 )
f ' ( x0 ) ≈
f ( x 0 )
f ( x0 + h) − f ( x0 ) h
f ' ( x0 ) ≈
f ( x0 ) − f ( x0 − h) h
f ( x0 − h)
x 0
x0 + h
x
x0 − h x 0
Diferenciación hacia atrás
Diferenciación hacia delante f ( x )
x
f ' ( x0 )
f ( x0 + h) f ( x0 )
f ' ( x0 ) ≈ f ( x0 − h)
x0 − h x 0
f ( x0 + h) − f ( x0 − h) 2h
x0 + h
x
Diferenciación centrada
80
Lo siguiente es un resumen de las fórmulas de diferenciación que se pueden obtener a partir de desarrollos en serie de Taylor. Expresiones de Primeras Diferencias Centrales
+
f ' ( x0 ) =
f ( x0
f ' ' ( x 0 ) =
f ( x0
f ' ' ' ( x 0 ) =
f ( x 0
f IV ( x 0 ) =
f ( x0
h) − f ( x0
−
h)
2h
+
h) − 2 f ( x 0 ) + f ( x0
−
h)
h2
+
2h) − 2 f ( x0
+
h) + 2 f ( x 0
−
h) − f ( x 0
−
2h )
2h 3
+
2h) − 4 f ( x 0
+
h) + 6 f ( x 0 ) − 4 f ( x 0
−
h) + f ( x 0
−
2 h)
h4
Expresiones de Primeras Diferencias Hacia delante
+
f ' ( x0 ) =
f ( x0
f ' ' ( x 0 ) =
f ( x0
f ' ' ' ( x 0 ) =
f ( x 0
f IV ( x 0 ) =
f ( x0
h) − f ( x0 ) h
+
2h) − 2 f ( x 0
+
h) + f ( x0 )
+
2h) + 3 f ( x 0
h2
+
3h) − 3 f ( x0
+
h) − f ( x0 )
+
2h) − 4 f ( x0
2h 3
+
4h) − 4 f ( x 0
+
3h) + 6 f ( x 0
+
h) + f ( x0 )
h4
Expresiones de Primeras Diferencias Hacia Atrás f ' ( x0 ) =
f ( x0 ) − f ( x0
f ' ' ( x 0 ) = f ' ' ' ( x 0 ) = f IV ( x 0 ) =
−
h)
h f ( x0 ) − 2 f ( x0
−
h) + f ( x 0
−
2h)
h2 f ( x 0 ) − 3 f ( x 0
−
h) + 3 f ( x 0
−
2h) − f ( x 0
−
−
2h) − 4 f ( x 0
3h)
2h 3 f ( x0 ) − 4 f ( x 0
−
h) + 6 f ( x 0
−
3h) + f ( x0
−
4h )
h4
Ejemplo Úsense aproximaciones de Diferencias Finitas Hacia Adelante, Hacia Atrás y Centradas para estimar la primera derivada en x = 0.5 de: f ( x) =
− 0.1 x 4 −
0.15 x 3
−
0.5 x 2
−
0.25 x + 1.2
81
Unidad VI Solución numérica de ecuaciones diferenciales.
Sea dv c = g − v dt m
Una ecuación diferencial de primer orden, donde: g , c v
y m son constantes.
es una variable dependiente.
t es
una variable independiente.
Las ecuaciones diferenciales se dividen en: Ecuaciones diferenciales ordinarias (EDO), si poseen una sola variable independiente. Ecuaciones diferenciales parciales (EDP), si poseen dos o más variables independientes. La ecuación m
d 2 x dt 2
+
c
dx dt
+
kx = 0
Es una ecuación diferencial de segundo orden, c y k son constantes. A estas ecuaciones se les conoce como ecuación de segundo grado; en general a las ecuaciones de orden mayor a uno se les conoce como ecuaciones de orden superior. Las ecuaciones de orden superior se pueden reducir a un sistema de ecuaciones de primer orden definiendo nuevas variables, si: y =
dx dt
Entonces dy dt
=
d 2 x dt 2
Sustituyendo las ecuaciones anteriores se tiene que m
dx dt
+
cy + kx = 0
o
dy cy + kx = dt m
La solución matemática de la EDO se puede obtener por separación de variables e integrando, con lo que se obtiene: dv = g dt −
c m
v dt
v=
g − ∫
c v dt m
82
Linealización de EDOs. Una EDO lineal es aquella que se ajusta a la forma general: an ( x) y n + an − 1 ( x ) y n− 1 + + a1 ( x) y + a0 ( x) = f ( x)
donde: y n
= derivada n-ésima de y respecto a x
a y f ( x) =
funciones específicas de x
Método de Euler
La primera derivada proporciona una estimación de la pendiente en xi tal como se observa en la figura siguiente y
Predicho
}
Error
Verdadero
h
x i
xi + 1
x
De la figura se observa que yi + 1 = yi
+ φ h
Donde φ es la pendiente φ = f ( xi , yi )
Es decir la función evaluada en los puntos ( xi , yi ) rescribiendo la ecuación anterior se tiene que y i + 1
= yi + f ( xi , yi ) h
A esta ecuación se le conoce como método de Euler o punto medio de Euler Cauchy
83
Ejemplo. Utilizar el método de Euler para integrar (Resolver la ecuación diferencial) numéricamente, con condiciones iniciales x = 0 , y = 1 , hasta x = 4 con paso de iteración de 0.5.: dy
= − 2 x 3 + 12 x 2 −
dx
20 x + 8.5
Resolviendo la ecuación diferencial tenemos que la solución real es: y
= − 0.5 x 4 +
4 x 3
− 10 x 2 +
8.5 x + 1
Resolviendo usando Euler i
xi
yi
f ( xi , yi )
vv
E v
0 1 2 3 4 5 6 7 8
0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
1 5.25000 5.87500 5.12500 4.50000 4.75000 5.87500 7.12500 7.00000
8.50000 1.25000 -1.50000 -1.25000 0.50000 2.25000 2.50000 -0.25000
1.00000 3.21875 3.00000 2.21875 2.00000 2.71875 4.00000 4.71875 3.00000
0.00 63.11 95.83 130.99 125.00 74.71 46.88 50.99 133.33
Calculando yi + 1 tenemos que yi + 1 = yi
=
f ( x 0
+ f ( xi , yi ) h
0, y 0
y1 (0.5) = y 0
= 1) = − 2 × 0 3 + 12 × +
02
−
20 × 0 + 8.5 = 8.5
f ( x 0 , y 0 ) h = 1 + 8.5 × 0.5 = 5.25
Tememos que la aproximación es que y1 = 5.25 Obteniendo el valor real y (0.5) =
− 0.5 × 0.5 4 + 4 × 0.53 − 10 × 0.5 2 +
8.5 × 0.5 + 1 = 3.21875
El error Verdadero relativo porcentual es: E v
=
vv
−
va
3.21875 − 5.25
=
vv
3.21875
=
63.11%
Calculando y 2 tenemos que f ( x1
=
0.5, y1
=
5.25) =
− 2 × 0.53 + 12 × 0.52 −
20 × 0.5 + 8.5 = 1.25
y 2 (1) = y1 + f ( x1 , y1 ) h = 5.25 + 1.25 × 0.5 = 5.875 y (1) =
− 0.5 × 14 + 4 × 13 − 10 × 12 + 8.5 × 1 + 1 =
3
84
El error verdadero es vv
− va =
vv
3 − 5.875 3
=
95.83%
Se continúa sucesivamente x = {1.5, 2, 2.5, 3, 3.5 y 4} de acuerdo al paso utilizado. Los valores obtenidos son valores de la curva que resulta de la ecuación. Graficando la solución aproximada y la verdadera se tiene: 8
y
7
6
h=0.5 5
4
3
2
Solución verdadera 1 0
0 .5
1
1 .5
2
2 .5
3
3 .5
4
x
Análisis de error para el método de Euler
Los tipos de errores en las ecuaciones diferenciales ordinarias pueden ser de truncamiento y de redondeo, los primeros son causados por las técnicas empleadas para aproximar, estas pueden ser de dos tipos
Truncamien to Tipos de errores en las EDOS Redondeo
Local Propaga do
Error de truncamiento: Es causado por las técnicas empleadas para aproximar. Error de redondeo: Es el resultado del número finito de cifras significativas que puede manejar un procesador. Error local: Es el resultado de aplicar el método en cuestión a un solo paso. Error propagado: Resulta de las aproximaciones producidas en los pasos previos. Se puede obtener información sobre la magnitud y propiedades del error de truncamiento al derivar el método de Euler directamente de las series de Taylor: y ' = f ( x, y )
donde: y ' =
dy dx
85
Si la solución tiene derivadas continuas, entonces se puede representar mediante una expansión en series de Taylor respecto a ( xi , yi ) de la forma: (n)
yi + 1 =
y ' ' y yi + y 'i h + i h 2 + + i h n n! 2!
+
Rn
Donde h = xi + 1 y Rn es un término remanente definido por: Rn
=
y ( n + 1) (ξ ) n + 1 h ( n + 1)!
Donde ξ es cualquier punto entre el intervalo definido entre xi y xi + 1 . Una forma alternativa se obtiene al sustituir las ecuaciones anteriores para obtener yi + 1 = yi
+
f ' ( xi , yi ) 2 f ( xi , yi ) ( n − 1) n f ( xi , yi )h + h + + h + Oh n + 1 2! n!
Donde Oh n + 1 especifica el error de truncamiento local, el cual es proporcional al tamaño del paso elevado a la (n + 1) -ésima potencia. Al comparar la ecuaciones se observa que el método de Euler corresponde a la serie de Taylor e incluyendo el término f ( xi , yi )h . De la comparación se observa que ocurre un error de truncamiento debido a que se aproxima la solución verdadera mediante un número finito de términos de la serie de Taylor. E v
=
f ' ( xi , yi ) 2 h + + Oh n + 1 2
A lo cual se obtiene el error de truncamiento local verdadero. Si h es lo suficientemente pequeña, los errores en la ecuación anterior disminuyen al elevar el orden de h y el resultado se presenta como: E a
=
f ' ( xi , y i ) 2!
h2
o E a = Oh 2
donde E a es el error de truncamiento local aproximado.
86
Ejemplo. Use la ecuación E v =
f ' ( xi , yi ) 2 h + + Oh n+ 1 para estimar el error del paso inicial 2!
del ejemplo anterior. Utilícela también para determinar el er ror debido a cada uno de los términos de orden superior de la serie de Taylor. Del ejemplo anterior tenemos que dy
f ( x, y ) =
= − 2 x 3 + 12 x 2 −
dx
20 x + 8.5
Con condiciones iniciales x = 0 , y = 1 , hasta x = 4 con paso de iteración de 0.5. para este ejemplo obtendríamos un E v de E v
=
f ' ( xi , yi ) 2 f ' ' ( xi , yi ) 3 f ' ' ' ( xi , yi ) 4 h + h + h 2! 3! 4!
Donde derivando f ( x, y ) se tiene f ( x, y ) =
− 2 x 3 + 12 x 2 −
f ' ( x, y ) =
− 6 x 2 +
f ' ' ( x, y ) =
− 12 x +
f ' ' ' ( x, y ) =
− 12
20 x + 8.5
24 x − 20 24
Tomado el punto inicial x = 0 , se tiene el error para la primera derivada f ' ( xi , yi ) 2 h 2!
= −
6 x 2 + 24 x − 20 0.5 2 2
6 × (0) 2 + − =
24 × (0) − 20 0.52 2
= − 2.5
Para la segunda derivada se tiene f ' ' ( xi , yi ) 3 h 3!
= − 12 x +
24
6
0.53
= − 12 × (0) + 6
24
0.53
=
0.5
Para la tercera derivada se tiene f ' ' ' ( xi , yi ) 4 h 4!
= − 12 0.54 = − 12 0.54 = − 0.03125 24
24
El error verdadero se obtiene sumando los errores para cada término E v
= − 2.5 +
0.5 − 0.03125 =
− 2.03125
Recordando que se sabe el valor verdadero es 3.21875 y que la estimación obtenida con el método de Euler es 5.25, Valor verdadero
=
estimación de aproximaci ón + error
Valor verdadero = 5.25 − 2.03125 = 3.21875
87
Mejoras al método de Euler
Una fuente fundamental de error en el método de Euler es que la derivada al principio del intervalo se supone que se aplica a través del intervalo entero. Existen dos modificaciones simples para ayudar a evitar este inconveniente. Las modificaciones en realidad pertenecen a una clase mayor de métodos de solución llamados métodos de Runge-Kutta. Sin embargo ya que tiene una interpretación grafica sencilla, se presenta antes de la derivación formal de los métodos de Runge-Kutta. Para corregir estas deficiencias se plantean primero el método de Heun y posteriormente los métodos de Runge-Kutta. Método de Heun
Un método para mejorar la aproximación a la pendiente implica el cálculo de dos derivadas del intervalo, en un punto inicial y otra en un punto final. En seguida se promedian las derivadas y se obtiene una aproximación mejorada de la pendiente en el intervalo completo. Este esquema, llamado método de Heun, que se muestra en la siguiente figura. Pendiente
y
=
0
f ( xi 1 , yi 1 ) +
y
+
0
Pendiente = f ( xi , yi )
xi
Pendiente =
a)
xi
x i
x +
1
b)
f ( xi , yi ) + f ( xi 1 , yi 1 ) +
+
2
xi
x +
1
Esquema Grafico del método de Heun. a) Predictor y b) Corrector. El método de Euler, la pendiente al principio de un intervalo es yi′
=
f ( xi yi )
Se usa para extrapolar linealmente a yi + 1 : yi0+ 1 = yi
+ f ( xi , yi )h
En el método estándar de Euler se pararía en este punto. Sin embargo en el método de Heun, la yi0+ 1 no es la respuesta final si no una predicción intermedia. Esto se debe a
88
que se ha distinguido a esta con el superíndice 0. La ecuación de yi0+ 1 se llama ecuación predictora. Proporciona una aproximación de yi + 1 que permite el cálculo de una pendiente aproximada al final del intervalo: yi′ + 1
=
f ( xi + 1 , yi0+ 1 )
Por lo tanto, se pueden combinar las dos pendientes y obtener una pendiente promedio sobre el intervalo: y ' + y 'i + 1 y ' = i 2
=
f ( xi , yi ) + f ( xi + 1 , yi0+ 1 ) 2
Esta pendiente promedio se usa para extrapolar linealmente de yi a yi + 1 usando el método de Euler: yi + 1 = yi +
f ( xi , yi ) + f ( xi + 1 , yi0+ 1 ) h 2
Que se llama una ecuación correctora. El método de Heun es un esquema predictor-corrector. Se puede expresar concisamente como: y i0+ 1
Predictor Corrector
y i + 1
= yi +
= yi +
f ( xi , y i ) h
f ( xi , yi ) + f ( xi + 1 , y i0+ 1 ) 2
h
Nótese que debido a que la ecuación del corrector tiene yi + 1 en ambos lados del signo igual, esta puede aplicarse para "corregir" en un esquema iterativo. Esto es, se puede usar una aproximación anterior varias veces para proporcionar una aproximación mejorada de yi + 1 . Se debe entender que este proceso no necesariamente converge a la respuesta correcta sino converger a una aproximación con un error de truncamiento finito. El error aproximado esta dado por E a
=
Aproximaci ón actual − Aproximaci ón anterior Aproximaci ón actual
× 100%
89
Ejemplo Utilizar el método de Heun para resolver (Integrar) numéricamente la ecuación diferencial y ' = 4e 0.8 x − 0.5 y desde x = 0 a x = 4 con tamaño de paso 1. La condición inicial en ( x, y ) = (0,2) . Donde la solución verdadera es: y
=
4 1.3
(e
0.8 x
−
e − 0.5 x ) + 2e − 0.5 x
Resolviendo usando Heun i 0 1 2 3 4
xi
yv
yi
0 1.0 2.0 3.0 4.0
2.00000 6.19463 14.84392 33.67717 75.33896
2.00000 6.70108 16.31978 37.19925 83.33777
f ( xi + 1 , yi0+ 1 ) yi0+ 1 5.00000 6.40216 12.25270 13.68578 27.97202 30.10670 62.69233 66.78396
f ( xi , yi ) 3.00000 5.55162 11.65224 25.49308
E v
0.00 8.18 9.94 10.46 10.62
La pendiente f ( xi , yi ) f (0,2) = y ' = 4e 0.8 x
− 0.5 y =
4e 0.8× 0 − 0.5 × 2 = 3 yi0+ 1 = yi
Estimando el predictor yi0+ 1
+ f ( xi , yi )h = 2 + 3 × 1 =
5
Estimando la pendiente f ( xi + 1 , yi0+ 1 ) f (1,5) = 4e 0.8 x
−
0.5 y
=
4e 0.8× 1
−
0.5 × 5 = 6.40216
Obteniendo al corrector yi + 1 = yi
+
f ( xi , yi ) + f ( xi + 1 , yi0+ 1 ) 3 + 6.40216 × 1 = 6.70108 h = 2+ 2 2
Obteniendo le error verdadero
E v
=
6.19463 − 6.70108 6.19463
× 100 =
8.18%
Este resultado proporciona un error relativo porcentual de 8.18%, el cual comparado con el método de Euler, es más pequeño aun cuando solo se uso un corrector. y
1 0 0
8 0
6 0
Solución verdadera
4 0
2 0
Aproximación de
y
x 0 0
1
2
3
4
90
Gráfica de comparación del valor verdadero con respecto a la aproximación Métodos de Runge-Kutta.
Los métodos de Runge-Kutta logran la exactitud del procedimiento de las series de Taylor sin requerir el uso de derivadas superiores. Existen diversas variantes, pero todas tienen la siguiente forma: yi + 1 = yi
+ φ ( xi , yi , h)h
Donde φ ( xi , yi , h) es conocida como la función incremento, la cual puede interpretarse como una pendiente representativa en un intervalo. Esta función se escribe de forma general como: φ = a1k 1 + a2 k 2 +
+ an k n
Donde las a son constantes y las k son: k 1
=
f ( xi , yi )
k 2
=
f ( xi + p1 h, yi
+
q11 k 1 h)
k 3
=
f ( xi + p2 h, yi
+
q21 k 1 h + q22 k 2 h)
k n
=
f ( xi + pn − 1 h, yi
+
qn − 1,1 k 1 h + qn − 1, 2 k 2 h + + qn − 1, n − 1 k n− 1 h)
Obsérvese que las k son las relaciones de recurrencia; esto indica que k 1 aparece en la ecuación para k 2 , y k 2 aparece en la ecuación para k 3 , etc. Métodos de Runge-Kutta de segundo orden
La versión de segundo orden para yi + 1 = yi + φ ( xi , yi , h)h es: yi + 1 = yi
+
(a1 k 1 + a2 k 2 ) h
Donde k 1
=
f ( xi , yi )
k 2
=
f ( xi + p1 h, yi
+
q11 k 1 h)
Los valores para a1 , a2 , p1 y q11 son evaluados al igualar el termino de segundo orden de yi + 1 = yi + (a1 k 1 + a2 k 2 ) h con la expansión de la serie de Taylor. Para desarrollar esto se obtienen tres ecuaciones con cuatro constantes desconocidas. Dichas ecuaciones son:
91
a1 + a2
=1
a2 p1
1
=
a2 q11
2
=
1 2
Debido a que se tienen cuatro incógnitas y tres ecuaciones, se propone el valor de una de estas incógnitas para determinar las demás. Por ejemplo, si se propone un valor para a2 , se obtiene: a1
= 1−
a2 y p1
=
q11 =
1 2 a2
Debido a que se puede elegir un número infinito de valores para a2 , existen también un número infinito de métodos o ecuaciones de Runge-Kutta de 2do. Orden. Las variantes más comunes son: Método de Heun de un solo corrector, Método del Punto Medio y Método de Ralston, los cuales se describen a continuación. Método de Heun de un solo corrector a2
=
1 2
Si se supone que a2 = 12 , entonces a1 = sustituidos en yi + 1 = yi + (a1 k 1 + a2 k 2 ) h da yi + 1 = yi
Donde
= f ( xi , yi ) k 2 = f ( xi + h, y i +
+
k 1 2
+
y p1 = q11 = 1 . Estos parámetros
1 2
k 2 2
h
k 1
k 1 h)
Obsérvese que k 1 es la pendiente al inicio del intervalo y k 2 es la del final. Método de punto medio a 2
=1
Si se supone que a2 = 1 , entonces a1 = 0 y p1 = q11 =
1
2
. Estos parámetros
sustituidos en yi + 1 = yi + (a1 k 1 + a2 k 2 ) h da: yi + 1 = yi
+
k 2 h
Donde k 1
=
f ( xi , yi )
k 2
=
f ( xi
+
1 2
h, yi
+
1 2
k 1 h)
92
Método de Ralston a 2
=
2 3
Ralston y Rabinowitz determinaron que al seleccionar a2 =
2 3
se obtiene un límite
mínimo sobre el error de truncamiento para los algoritmos de Runge-Kutta de segundo orden. Para esta versión, a1 =
1 3
y p1 = q11 = y i + 1
= yi +
3 4
1 3
lo cual da: k 1
+
2 3
k 2 h
Donde k 1
=
f ( x i , y i )
k 2
=
f ( xi
+
3 4
+
h, y i
3 4
k 1 h)
Métodos de Runge-Kutta de tercer orden.
Se puede llevar una derivación análoga a la del método de segundo orden, para n = 3.
El resultado de esta derivación es de seis ecuaciones con ocho incógnitas para
determinar los parámetros restantes. Una versión común que resulta es yi + 1 = yi
+ [ 16 ( k 1 +
4k 2 + k 3 ) ] h
Donde k 1
=
f ( xi , yi )
k 2
=
f ( xi
+
k 3
=
f ( xi
+
1 2
h, yi
h, y i
+
−
1 2
k 1 h)
k 1 h + 2 k 2 h)
93
Métodos de Runge-Kutta de cuarto orden.
Los Métodos de Runge-Kutta más populares son los de cuarto orden. Como sucede con los métodos de segundo orden. Existe un número infinito de versiones. Se presentan las dos versiones mas comunes de este método la primera versión se basa en la regla de Simpson
y comúnmente es llamada método clásico de Runge-Kutta
1 3
como se describe continuación. yi + 1 = yi
+ [ 16 (
k 1 + 2k 2 + 2k 3 + k 4 ) ] h
Donde k 1
=
f ( xi , yi )
k 2
=
f ( xi
+
1 2
h, yi
+
1 2
k 1 h)
k 3
=
f ( xi
+
1 2
h, yi
+
1 2
k 2 h)
k 4
=
f ( xi
+
h, yi
+
k 3 h)
La segunda se basa en la regla de Simpson 83 y se escribe así yi + 1 = yi
+ [ 18 (
k 1 + 3k 2 + 3k 3 + k 4 ) ] h
Donde k 1
=
f ( xi , yi )
k 2
=
f ( xi
+
1 3
h, yi
+
1 3
k 1 h)
k 3
=
f ( xi
+
1 3
h, yi
+
1 3
k 1 h +
k 4
=
f ( xi
+
h, yi
+
1 3
k 2 h)
k 1 h − k 2 h)
94
Método de Runge-Kutta de orden superior.
Donde se requiera mayor exactitud, se recomienda el método de Runge-Kutta de quinto orden, Butcher yi + 1 = yi + h[ 901 ( 7 k 1 + 32k 3 + 12k 4 + 32k 5 + 7 k 6 ) ] Donde k 1
=
f ( xi , yi )
k 2
=
f ( xi
+
1 4
h, yi
+
1 4
hk 1 )
k 3
=
f ( xi
+
1 4
h, yi
+
1 8
hk 1 +
k 4
=
f ( xi
+
1 2
h, yi
−
1 2
hk 2 + hk 3 )
k 5
=
f ( xi
+
3 4
h, yi
+
3 16
k 6
=
f ( xi
+
h, yi
−
3 7
hk 1 +
hk 1 +
2 7
1 8
hk 2 )
9 16
hk 4 )
hk 2 +
12 7
hk 3 −
12 7
hk 4 +
8 7
hk 5 )
Se pueden disponer de formulas de Runge-Kutta de orden superior, tales como el método de Butcher, pero, en general, la ganancia obtenida en exactitud por métodos de orden superior al cuarto orden se contrapone con la complejidad y esfuerzo de cálculo.
95
Ejemplo Utilizar el método de Runge-Kutta de cuarto orden clásico para resolver (Integrar) numéricamente la ecuación diferencial y ' = 4e 0.8 x − 0.5 y desde x = 0 a x = 4 con tamaño de paso 1. La condición inicial en ( x, y ) = (0,2) . Donde la solución verdadera es: y
=
4 1.3
(e
0.8 x
−
e − 0.5 x ) + 2e − 0.5 x
i
xi
yi
V v
k 1
k 2
k 3
k 4
E v
0 1 2 3 4
0 1.0 2.0 3.0 4.0
2.00000 6.20104 14.86248 33.72135 75.43917
2.00000 6.19463 14.84392 33.67717 75.33896
3.00000 5.80165 12.38089 27.23203
4.21730 8.72954 19.02976 42.10991
3.91297 7.99756 17.36754 38.39044
5.94568 12.71283 27.97769 62.07423
0.00 0.10 0.13 0.13 0.13
Utilizando las ecuaciones de Runge-Kutta clásico de cuarto orden se calculan las k n k 1
=
f ( x0 , y0 ) = f (0,2) = 4e 0.8× 0 − 0.5 × 2 = 3
k 2
=
f ( x0 +
1 2
h, y0 +
k 3
=
f ( xi
+
1 2
h, yi
k 4
=
f ( xi
+
h, yi
+
+
1 2 1 2
k 1 h) = f (0.5,3.5) = 4e 0.8× 0.5 − 0.5 × 3.5 = 4.21730 k 2 h) = f (0.5,4.10865) = 4e 0.8× 0.5 − 0.5 × 4.10865 = 3.91297
k 3 h) = f (1,5.91297) = 4e 0.8× 1 − 0.5 × 5.91297 = 5.94568
Sustituyendo las k n obtenemos la siguiente aproximación yi + 1 = yi
+ [ 16 (
k 1 + 2k 2 + 2k 3 + k 4 ) ] h = 2 +
[ 16 ( 3 + 2 ×
4.21730 + 2 × 3.91297 + 5.94568) ] × 1 = 6.20104
Obteniendo le error verdadero E v
=
6.19463 − 6.20104 × 100 = 0.10% 6.19463
96
Ecuaciones diferenciales ordinarias de orden superior
Los procedimientos numéricos vistos en esta unidad solo se aplicaron a ecuaciones de primer orden
dy dx
=
f ( x, y ) ,
sujeto a la condición inicial y( x0 ) = y0 . En este apartado
se aplicaran para ordenes superiores, por ejemplo, para aproximar una solución de una ecuación diferencial de segundo orden, se rescribe la ecuación de tal manera que se despeje la derivada de mayor orden para que tenga la forma siguiente en el caso de una ecuación diferencial de segundo orden tenemos que. d 2 y dx 2
=
a1 ( x)
dy + a0 ( x) y + g ( x) dx
Donde y
es la variable dependiente
x
es la variable independiente
ai ( x) son las coeficientes de la ecuación diferencial g ( x) es el coeficiente independiente la ecuación diferencial
Se puede escribir de forma matricial como sigue '
y = 0 y' a0 ( x)
1 y a1 ( x) y '
+ 01 g ( x)
Para una ecuación diferencial de tercer orden d 3 y dx3
=
d 2 y a2 ( x) 2 dx
+
a1 ( x)
dy dx
+
a0 ( x) y + g ( x)
Escribiéndola en forma matricial '
y 0 y' = 0 y' ' a0 ( x)
1 0 a1 ( x)
0 y 1 y ' a2 ( x) y ' '
0 + 0 g ( x) 1
97
Por ejemplo escriba de manera matricial la siguiente ecuación diferencial de segundo orden y ' '+ xy'+ y = 0
Despejando la derivada de mayor orden tenemos y ' ' = − xy'− y
Escribiéndola de manera matricial '
y = 0 1 y + 0 × 0 y ' − 1 − x y ' 1 Como g ( x) = 0 la ecuación a resolver es '
y = 0 1 y y' − 1 − x y ' Para una ecuación diferencial de tercer orden x 3 y ' ' '+ 5 x 2 y ' '+ 7 xy'+ 8 y
=1
Despejando la derivada de mayor orden tenemos y ' ' ' = 1 − 5 x − 1 y ' '− 7 x − 2 y '− 8 x − 3 y
Escribiéndola de manera matricial '
y y' = y' ' −
0
1
0
0
8 x − 3
−
7 x − 2
1 −1 − 5 x 0
y y' y' '
0 1 + 0 × 3 x 1
98
Ejemplo Utilizar el método de Runge-Kutta de segundo orden (Ralston) para resolver (Integrar) numéricamente la ecuación diferencial se segundo orden y' '+ 5 y '+ 4 y = 0 desde x = 0 a x = 1 con tamaño de paso 0.25. la condición inicial en y(0) = 1 y y ' (0) = 0 Donde la solución verdadera es: y =
4 3
e − x
−
1 3
e − 4 x
Despejando la derivada de mayor orden podemos rescribir la ecuación diferencial de la siguiente manera y ' ' =
− 5 y'− 4 y
Escribiéndola en forma matricial '
y = 0 1 y + 0 × 0 y ' − 4 − 5 y ' 1 Como no existe el término independiente '
y = 0 1 y y ' − 4 − 5 y' i
xi
yi
y'i
k 1
k '1
k 2
k '2
vv
E a
0 1 2 3 4
0.00 0.25 0.50 0.75 1.00
1.0000 0.8750 0.7305 0.5941 0.4759
0.0000 -0.3750 -0.4805 -0.4691 -0.4134
0.0000 -0.3750 -0.4805 -0.4691
-4.0000 -1.6250 -0.5195 -0.0309
-0.7500 -0.6797 -0.5779 -0.4749
-0.2500 0.1797 0.3279 0.3499
1.0000 0.9158 0.7636 0.6132 0.4844
0.00 4.46 4.33 3.11 1.75
' 1 y y Dado que f ( xi , yi ) = = −04 −15 y donde y ' son las condiciones iniciales 0 y' y'
calculando k 1 y k 2
0 , 1 = 0 1 × 1 = 0 0 0 − 4 − 5 0 − 4
k 1
=
f ( xi , y i ) = f
k 2
=
f ( xi
k 2
, = f 00..1875 1875 −
+
3 4
h, y i
+
3 4
0 + 3 × 0 4
k 1 h) = f
1 0.75
0.1875 1 3 0 0 + 4 × − 4 × 0.25 = f 0.1875 , −
0.25,
= 0 1 × − 4 − 5 −
1 0.75
= −−
1 0.75
0.75 0.25
99
Calculando y1 y i + 1
= yi +
1 3
k 1
2
+
3
k 2 h =
1 + 1 × 0 + 2 × − 0 3 − 4 3 −
0.75 0.25
× 0.25 = 0.8750 − 0.3750
Realizando otra iteración tenemos que k 1 y k 2
0.25 , 0.8750 = 0 1 × 0.8750 = − 0.3750 0.25 − 0.3750 − 4 − 5 − 0.3750 − 1.6250
k 1
=
f ( x i , y i ) = f
k 2
=
f ( x i
k 2
, 0.8047 = 0 1 × 0.8047 = − 0.6797 = f 00..4375 4375 − 0.6797 − 4 − 5 − 0.6797 0.1797
+
3 4
h, y i
+
3 4
0.25 + 3 × 0.25, 0.8750 + 3 × − 0.3750 × 0.25 = f 0.4375 , 0.8047 0.4375 − 0.6797 − 0.3750 4 − 1.6250 0.25 4
k 1 h) = f
Calculando y2 yi + 1 = yi
+
1 2 k 1 + k 2 h = 3 3
0.8750 + 1 × − 0.3750 + 2 × − 0.6797 × 0.25 = 0.7305 − 0.3750 3 − 1.6250 3 0.1797 − 0.4805
En la siguiente figura se observa los resultados graficados y 1 Solución verdadera
Aproximación de y
0 .5
x 0
0 .2
0 .4
0 .6
0 .8
1
1 .2
1 .4
1 .6
1 .8
2
Aproximación de y '
-0.5
100
Universidad Autónoma de Baja California Métodos Numéricos Tarea unidad II EJERCICIOS NOTA: Usa todos los dígitos en tu calculadora para que la aproximación sea lo más exacta posible. 1. Usa el método de bisección para aproximar la raíz de f ( x) = e− x el intervalo [0.75,1] y hasta que
2
−
2 x + 1 comenzando en
ε a < 1% . Solución: xr =0.8046875.
2. Usa el método de bisección para aproximar la raíz de f ( x) = x 2 + 1 + tan x comenzando en el intervalo [0.5,1] y hasta que
ε a < 1% . Solución:
xr =0.9453125.
3. Usa el método de la regla falsa para aproximar la raíz de f ( x) = 4 − x 2 − x 3 comenzando en el intervalo [1,2] y hasta que
ε a < 1% . Solución:
xr =1.310240113.
4. Usa el método de la regla falsa para aproximar la raíz de f ( x) = ln x + x 2 − 4 comenzando en el intervalo [1,2] y hasta que
ε a < 1% . Solución: xr =1.841068663.
5. Usa el método de Newton-Raphson para aproximar la raíz de f ( x) = 1 − x 2 − arctan x comenzando con x0
=
0.5 y hasta que
ε a < 1% . Solución:
xr =0.650561444.
6. Usa el método de Newton-Raphson para aproximar la raíz de f ( x) = cos x − x , comenzando ε a < 1% . Solución: xr =0.739085133. con x0 = 1 y hasta que 7. Usa el método de la secante para aproximar la raíz de f ( x) = arcsin x − e − 2 x comenzando con x0
= 0 , x1 =
0.5 y hasta que
ε a < 1% . Solución:
xr =0.419118641.
8. Usa el método de la secante para aproximar la raíz de f ( x) = e − x − x comenzando con x0
= 0 , x1 = 1 y hasta que ε a < 1% . Solución:
xr = 0.567170358.
9. Usa el método de iteración del punto fijo para aproximar la raíz de f ( x) = sen x − x − 1 comenzando con x0 = 0.52 y hasta que ε a < 1% . Solución: xr =0.513272518 10. Usa el método de iteración del punto fijo para aproximar la raíz de f ( x) = ln x + 2 x − 4 comenzando con x0 = 1.5 y hasta que ε a < 1% . Solución: xr =1.725168086.
11. Usa el método de Newton Rasphson modificado para aproximar la raíz de f ( x ) = x 4 − 6 x 3 + 12 x 2 − 10 x + 3 comenzando con x0 = 0 y hasta que ε a < 1% . xr =1.
Universidad Autónoma de Baja California Métodos Numéricos Tarea unidad III EJERCICIOS NOTA: Usa todos los dígitos en tu calculadora para que la aproximación sea lo más exacto posible. 1.- Si A y B son las siguientes matrices obtenga lo que se le pide.
1 A = 2 4
5
6
1
3
0
5
4 B = 1 1
3
1
2
6
0
4
a) A × B b) B × A c) B + A d) 9 × A e) AT f) Det ( AT ) 2.- Para los siguientes sistemas de ecuaciones obtenga la regla de Cramer.
+ 4 x1 − 3 x 2 + 5 x1 + x 2 − 6 x3 + 12 x3
7 x1 − 3 x2 + 8 x3
= − 49 4 x1 − 6 x2 + 10 x3 = − 84 x1 − 2 x2 − 5 x3 = 5
= 7 x 3 = 4 x 2 = 4 x 4 = 2 x 4
g) Det ( B ) 36 3 25 17
3.- Resuelva los siguientes sistemas de ecuaciones mediante eliminación Gaussiana, y con el
método de Gauss-Jordan. x1 + 3 x2 − 2 x3 + x4
= 15.25 x1 + 3 x2 − x3 + 2 x4 = 21 x2 − x3 + 4 x4 = 23 2 x1 + 6 x2 + x3 + 2 x4 = 35.5
x1 − 14 x2
= − 103 x1 − 3 x2 + 12 x3 = 10 5 x1 − 12 x2 + 2 x3 = − 33
4.- Utilice descomposición LU para resolver los siguientes sistemas. 2 x1 + 5 x2 − 2 x3 + 4 x4
= x2 + 4 x3 + 6 x4 = x1 + 2 x2 − 2 x3 + 3 x4 = x1 + 2 x2 − 3 x3 + 5 x4 =
77
4 x1 − 2 x2 − x3
= 39 x1 − 6 x2 + 2 x3 = − 28 x1 − 3 x2 + 12 x3 = − 86
69 42 58
5.- Use la Crout (Inversa por LU ) para obtener la inversa de las siguientes matrices. Así
mismo obtenga el número de condición de dichas matices.
1 1 A = 0 2
1
−2 −1 −1
6
1
3 3
1
4 2 2
10 − 3 6 B = 1 8 − 2 − 2 4 − 9
C =
4 − 9 − 3 7
6.- Obtenga la descomposición de Cholesky para las siguientes matrices.
9 18 A = 15 12
18 15 12
36 49
52 18 16 18
38
16
36
4 B = 2 14
2 10 46
46 243 14
C =
0.04 0.16
0.16
0.89
Universidad Autónoma de Baja California Métodos Numéricos Tarea unidad IV EJERCICIOS NOTA: Usa todos los dígitos en tu calculadora para que la aproximación sea lo más exacto posible.
1.- Resuelva las siguientes integrales definidas obteniendo la mejor exactitud posible π
sen x
∫ x
5
∫ (1 − x − 4 x
dx
π
3
+
1.5
∫
3 x 5 ) dx
−3
−2
1 2π
e
−
x 2 2
dx
2
2.- Hallar los polinomios interpoladores de segundo y tercer grado con nodos en los puntos 0, 1,−1 y −2,−1, 1, 2 respectivamente de las funciones: a. f ( x) = x , b. f ( x) = x 2 , c. f ( x) = 2 x 2 − 3x + 1 , d. f ( x) = 1 /(2 x + 1) , e. f ( x) = 1 /(1 + x 2 ) . Y evalúelos para cuando x = 0.5
3.- Halla el polinomio interpolador de tercer grado de la función sen( x) con los puntos en los Halla 0, π / 4, 3π / 4, π y el polinomio interpolador de cuarto grado con nodos en los puntos 0, π / 4, π / 2,3π / 4, π En ambos casos para el punto x = π / 8 .
4.- Obtenga la derivada de las siguientes ecuaciones para x = 10 y
=
2 e − X +
X
−
3 sin( x ) 2 + cos( x )
f ( x ) =
ln( X )
5.- Obtenga la derivada de las siguiente ecuación para x = 5 y = e − X − ln x 2
6.- Ajuste un a polinomio de interpolación de Lagrange los siguientes puntos para obtener x = 5 , así mismo use el método de mínimos cuadrados para el mismo punto. X 1.2 1.8 3.1 4.9 5.7 7.1 F(X) 4.5 5.9 7.0 7.8 7.2 6.8 7.- utiliza la regla trapezoidal, Simpson π
∫
2
0
cos( x) dx
1 3 1
∫ 0
y
3 8
e − x dx 2
para resolver las siguientes integrales
∫ 0
π
cos( x 2 ) dx
Universidad Autónoma de Baja California Métodos Numéricos Tarea IV 1. Dada la siguiente ecuación diferencial: con condiciones iniciales y (2)
cada paso del proceso iterativo hasta x = 4 Solución:
=
0.5 tomando h = 0.5 en
use el método de Euler .
y (2) ≈ 8.21613948403160 y ' =
x 2
+
y2
2. Dada la ecuación diferencial: Use el método de Heun para aproximar y (1.3) tomando h
=
0.1 en
cada paso del proceso iterativo. Con condiciones iniciales y (1) = 1.5 . Solución:
. y (1.3) ≈ 1.80788129697832 y ' = ln( x + y )
3. Dada la ecuación diferencial: y ' = 2 x + y − 3 Usa el método de punto medio para aproximar y (2.3)
para aproximar tomando h = 0.1 en cada paso del proceso iterativo. Con condiciones iniciales de y ( 2) = 1 Solución:
y (2.3) ≈ 1.79693050
4. Dada la siguiente ecuación diferencial, Use el método de Ralston para aproximar y (3.3) tomando
h = 0.1 en cada paso del proceso iterativo. Con condiciones iniciales y (3) = 2.5 Solución:
y (3.3) ≈ 2.52416053645258 y' =
1
x 2 + y
5. Dada la siguiente ecuación diferencial: Use el método de Runge-Kutta tercer orden para aproximar
y (4.3) tomando h = 0.1 en cada paso del proceso iterativo. Con condiciones iniciales y (4) = 5 Solución:
y (4.3) ≈ 5.48415211356027 y ' = ln( x ) +
1 y