Pagina web Análisis Numérico
-
Upload
christopheradan50 -
Category
Education
-
view
108 -
download
0
Transcript of Pagina web Análisis Numérico
UNIVERSIDAD FERMÍN TORO
VICERECTORADO ACÁDEMICO
FACULTAD DE INGENIERIA
ESCUELA DE ELECTRICIDAD
Análisis Numérico
Edisson Adan CI: 23488760
Profesor: Domingo Méndez.
Sección: SAIA B
Teoría de interpolación
Polinomios Interpolantes de Newton-Gregory y Gauss
Polinomio Interpolante de Newton-Gregory Cuando la función ha sido tabulada,
se comporta como un polinomio, se le puede aproximar al polinomio que se le
parece. Una forma sencilla de escribir un polinomio que pasa por un conjunto de
puntos equiespaciados, es la fórmula del Polinomio Interpolante de Newton-
Gregory (en avance y retroceso).
La fórmula usa la notación, que es el número de combinaciones de s cosas
tomadas de n a la vez, lo que lleva a razones factoriales. Donde s viene dada por:
x es el valor a interpolar el polinomio obtenido; Xo viene a ser el punto de partida
para seleccionar los valores que serán seleccionados de la tabla de diferencias,
formando una fila diagonal hacia abajo en el caso de la fórmula de avance; en
caso de la fórmula de retroceso los valores forman una fila diagonal hacia arriba y
a la derecha. Y ha viene a ser la longitud o distancia entre los valores de xi.
Polinomio Interpolante de Gauss
Hay una gran variedad de fórmulas de interpolación además del Método de
Newton-Gregory, difieren de la forma de las trayectorias tomadas en la tabla de
diferencias; Por ejemplo la fórmula del Polinomio Interpolante de Gauss (en
avance y retroceso), donde la trayectoria es en forma de Zig-Zag, es decir los
valores desde el punto de partida Xo serán seleccionados en forma de zig-zag.
Interpolación De Hermite
Aquí buscamos un polinomio por pedazos Hn(x) que sea cúbico en cada sub-
intervalo, y que interpole a f(x) y f'(x) en los puntos. La función Hn(x) queda
determinada en forma única por estas condiciones y su cálculo requiere de la
solución de n sistemas lineales de tamaño 4x4 cada uno. La desventaja de la
interpolación de Hermite es que requiere de la disponibilidad de los lo cual no es el
caso en muchas en muchas aplicaciones.
Interpolación Usando Splines
Los dos tipos de polinomios por pedazos que hemos discutidos hasta ahora
tienen la desventaja de que su segunda derivada no es continua en los puntos de
interpolación. Se ha observado que en aplicaciones gráficas, el ojo humano es
capaz de detectar discontinuidades en las segundas derivadas de una función,
haciendo que los gráficos con este tipo de funciones no luzcan uniformes. Esto
motiva el uso de los splines que son funciones s(x) continuas por pedazos con las
siguientes propiedades: 1. s(x) es polinomio cúbico en. 2. existen y son continuas
en. 3. s(x) interpola a la función f en los datos. 4. s(x) es continua en el intervalo.
Si escribimos, entonces tenemos un total de 4n desconocidas. Las condiciones 2)
y 4) nos dan 3(n-1) ecuaciones mientras que de 3) obtenemos n+1 para un total
de 4n-3(n-1)-(n+1)=2 grados de libertad. Estos grados de libertad se fijan
imponiendo condiciones de frontera adicionales en s(x).
Polinomio Interpolante De Lagrange
Para construir un polinomio de grado menor o igual que n que pase por los n+1
puntos: donde se supone que si i ¹ j. Este Polinomio Pn es la fórmula del Polinomio
Interpolante de Lagrange. Esta fórmula si puede aplicarse independientemente del
espaciamiento de la tabla, pero tiene el inconveniente de que no se conoce el
grado del polinomio. Como no se conoce, se tiene que determinar iterativamente.
Se propone un grado, se realiza la interpolación, se propone el siguiente grado, se
vuelve a interpolar y se compara con algún criterio de convergencia, si se cumple
terminamos si no, se repite el procedimiento.
Sistema de numeración y errores
Un sistema de numeración es el conjunto de símbolos y reglas que se utilizan
para la representación de datos numéricos y cantidades. Se caracteriza por su
base que es el número de símbolos distintos que utiliza, y además es el
coeficiente que determina cual es el valor de cada símbolo dependiendo de la
posición que ocupe. Los sistemas de numeración actuales son sistemas
posicionales en los que el valor relativo que representa cada símbolo o cifra de
una determinada cantidad depende de su valor absoluto y de la posición relativa
que ocupa dicha cifra con respecto a la coma decimal.
El sistema decimal
Es un sistema de numeración en el que las cantidades se representan
utilizando como base el número diez, por lo que se compone de las cifras: cero
(0); uno (1); dos (2); tres (3); cuatro (4); cinco (5); seis (6); siete (7); ocho (8) y
nueve (9).
El sistema binario
Es un sistema de numeración en base 2, en el que los números se representan
utilizando solamente las cifras cero y uno (0 y 1). Los ordenadores trabajan
internamente con dos niveles de voltaje, por lo que su sistema de numeración
natural es el sistema binario (encendido 1, apagado 0).
Cada cifra o dígito de un número representado en este sistema se denomina
BIT (contracción de binary digit).
Para la medida de cantidades de información representadas en binario se
utilizan una serie de múltiplos del bit que poseen nombre propio; estos son:
1 bit = unidad mínima de información.
8 bits = 1 Byte
1 byte =1 letra, numero, símbolo de puntuación.
Unidades de medida de almacenamiento
1,024 bytes = 1 Kilobyte, Kbyte o KB
1,024 KB= 1 Megabyte, Mbyte o MB (1,048,576 bytes)
1,024 MB= 1 Gigabyte, Gbyte o GB (1,073,741,824 bytes)
1,024 GB= 1 Terabyte, Tbyte o TB (1,099,511,627,776 bytes)
1,024 TB= 1 Pentabyte, Pbyte o PB (1,125,899,906,842,624 bytes)
Sistema Hexadecimal
El sistema hexadecimal, a veces abreviado como hex, es el sistema de
numeración posicional de base 16 empleando por tanto 16 símbolos. Su uso
actual está muy vinculado a la informática y ciencias de la computación.
En principio dado que el sistema usual de numeración es de base decimal y,
por ello, sólo se dispone de diez dígitos, se adoptó la convención de usar las seis
primeras letras del alfabeto latino para suplir los dígitos que nos faltan. El conjunto
de símbolos sería, por tanto, el siguiente:
Error absoluto
Es la diferencia entre el valor de la medida y el valor tomado como exacto.
Puede ser positivo o negativo, según si la medida es superior al valor real o
inferior (la resta sale positiva o negativa). Tiene unidades, las mismas que las de
la medida. Sin embargo, para facilitar el manejo y el análisis se emplea el error
absoluto definido como: EA = | P* - P |
Error relativo
Es el cociente (la división) entre el error absoluto y el valor exacto. Si se
multiplica por 100 se obtiene el tanto por ciento (%) de error. Al igual que el error
absoluto puede ser positivo o negativo (según lo sea el error absoluto) porque
puede ser por exceso o por defecto. No tiene unidades. Y el error relativo como
ER = | P* - P| / P, si P =/ 0
El error relativo también se puede multiplicar por el 100% para expresarlo como:
ERP = ER x 100
Errores de Redondeo
Casi la totalidad de los números reales requieren, para su representación
decimal, de una infinidad de dígitos. En la práctica, para su manejo sólo debe
considerarse un número finito de dígitos en su representación, procediéndose a su
determinación mediante un adecuado redondeo.
Los errores de redondeo se deben a que las computadoras sólo guardan un
número finito de cifras significativas durante un cálculo. Las computadoras realizan
esta función de maneras diferentes. Por ejemplo, si sólo se guardan siete cifras
significativas, la computadora puede almacenar y usar "pi" como "pi" = 3.141592,
omitiendo los términos restantes y generando un error de redondeo.
Ya que la mayor parte de las computadoras tiene entre 7 y 14 cifras
significativas, los errores de redondeo parecerían no ser muy importantes.
Errores de Truncamiento
Los errores de truncamiento son aquellos que resultan al usar una aproximación
en lugar de un procedimiento matemático exacto. Además para obtener
conocimiento de las características de estos errores se regresa a la formulación
matemática usada ampliamente en los métodos numéricos para expresar
Funciones en forma polinomial.
Teorema de Taylor
El proceso de derivación de funciones reales de variable real puede obviamente
iterarse, obteniendo la segunda y sucesivas derivadas de una función. Igual que la
derivabilidad de una función en un punto permitía aproximar la función mediante
un polinomio de grado menor o igual que uno, la existencia de la derivada n-ésima
en un punto dará lugar a una aproximación aún mejor, mediante un polinomio de
grado menor o igual que n, llamado polinomio de Taylor. El error que se comete al
hacer esta aproximación, es decir, la diferencia entre la función de partida y su
polinomio de Taylor, se conoce como resto de Taylor. La validez de la
aproximación se cuantifica mediante la llamada fórmula infinitesimal del resto,
porque describe la “rapidez” con la que el resto de Taylor tiende a cero al
acercarnos al punto en cuestión. Una estimación aún más precisa se consigue
mediante la llamada fórmula de Taylor, que describe con exactitud el resto de
Taylor y es un resultado análogo al Teorema del Valor Medio, pero involucrando
las derivadas sucesivas de una función.
Teorema del valor medio (Lagrange)
Si f (x) es continua en [a, b] y derivable en (a, b), entonces existe algún punto c
(a, b) tal que = f’(c)
Interpretación geométrica: existe un punto perteneciente al intervalo en el que
la tangente a f (x) es paralela a la secante que pasa por los puntos de abscisa a y
b. De otro modo: existe un punto del intervalo en el que la tasa de variación
instantánea coincide con la tasa de variación media de todo el intervalo.
Teorema de Rolle
Sea f una función que verifica las siguientes hipótesis:
- Es continua en el intervalo cerrado [a, b]
- Es derivable en el intervalo abierto (a, b)
- Toma el mismo valor en los extremos del intervalo, es decir f(a) = f (b)
Entonces, existe un punto c que pertenece (a, b) tal que f´(c) = 0, es decir, con
tangente horizontal.
Teorema del Valor Intermedio
La hipótesis de este teorema es que contamos con una función F que es
continua en un intervalo cerrado [a,b].
Se afirma que, en tal caso, la función alcanzará cualquier valor intermedio,
comprendido entre F(a) y F(b).
Observa que como el intervalo es cerrado, existe tanto F(a) como F (b). Si
fijamos un valor concreto, digamos k, comprendido entre F(a) y F (b), el teorema
nos garantiza que debe existir al menos un cierto valor x del intervalo (a,b) para el
cual F(x) = k. Pero solo nos asegura que tiene que haber ese valor, no nos dice
nada de cómo encontrarlo.
Método de Bisección
Algoritmo del método de Bisección El método de Bisección para la resoluci´0on
de la ecuación f(x) = 0 se basa en el Teorema de Bolzano que nos asegura la
existencia de, al menos, una raíz de una función f(x) en un cierto intervalo [a, b],
bajo ciertas condiciones.
Teorema de Bolzano
Sea f: [a, b] → R una función continua en [a, b] tal que f(a)f(b) < 0. Entonces
existe c ∈ (a, b) tal que f(c) = 0.
Supongamos que f(x) es continua y cambia de signo en los extremos de [a, b].
Basándonos en el anterior teorema, podemos aproximar una solución de la
ecuación f(x) = 0 dividiendo el intervalo inicial en dos subintervalos iguales y
eligiendo aquel en el que f(x) cambia de signo. Después se repite el proceso hasta
que se verifique algún criterio de parada.
Algoritmo del Método de Bisección
1. a0 = a, b0 = b
2. Para n = 0, 1,. . ., hacer:
mn = 1 2 (an + bn)
Si f (an) f(mn) < 0, tomar an+1 = an, bn+1 = mn; en caso contrario, tomar an+1
= mn, bn+1 = bn.
Algoritmo del Método de Falsa Posición
Se trata de realizar un refinamiento del Método de de Bisección, eligiendo la
aproximación m a distancias de a y b proporcionales a f(a) y f(b). La ecuación de
la recta que pasa por los puntos (a, f(a)) y (b, f(b)) es
= , de donde se tiene que el corte con el eje OX es, haciendo x
= 0 y despejando y, el valor m=
Algoritmo del Método de Falsa Posición
1. a0 = a, b0 = b
2. Para n = 0, 1,. . ., hacer:
mn = anf(bn) − bnf(an) f(bn) − f(an)
Si f(an)f(mn) < 0, tomar an+1 = an, bn+1 = mn; en caso contrario, tomar an+1 =
mn, bn+1 = bn.
Método de la secante
Se trata de un método iterativo en el que, en cada paso, se calcula una
aproximación de la solución en lugar de un intervalo que la contiene. 7 Se parte de
x0 = a y x1 = b y se calcula, iterativamente para cada n ≥ 1, la intersección de la
secante que une los puntos (xn−1, f(xn−1) y (xn, f(xn)) con el eje de abscisa,
obteniéndose la abscisa.
xn+1=
Método de Newton-Raphson
Se trata de llevar el límite el método de la secante y, por tanto, en cada iteración
n, considerar la recta tangente a f(x) en (xn, f(xn)) y tomar como siguiente
aproximación xn+1 la intersección de dicha tangente con el eje de abscisas. Por
tanto, teniendo en cuenta que la ecuación de la recta tangente a la gráfica de f(x)
en el punto (xn, f(xn)) es:
Y − f(xn) = f 0 (xn)(x − xn), se tiene que
Xn+1=xn-
Diferenciación e Integración Numérica
Una integral definida tiene la forma,
Donde a, b son el límite inferior y superior de integración, respectivamente, f(x)
es la función a integrar y dx es la diferencial de x.
La integral, geométricamente, representa el área delimitada por el lugar
geométrico de la función, f(x), el eje de la abscisas, y la dos rectas verticales x = a
y x = b, ver la figura,
Cuando, la integral definida es muy difícil o de plano imposible de resolver,
existen estrategias que permiten tener una solución aproximada. La integral
definida permite que, geométricamente, se determine una aproximación a través
de trapecios. Otra forma de obtener una solución aproximada a la integral definida
es tratar de ajustar un polinomio al lugar geométrico de la función a integrar, y así
en vez de integrar la función f(x), se integra el polinomio Pn(x),
Al igual que la integral, la derivada tiene un significado geométrico que permite
una aproximación numérica. Así, la derivada representa, geométricamente, la
pendiente de una recta tangente,
La recta es tangente al lugar geométrico de la función f(x). Toman dos puntos
alrededor del punto de tangencia es posible representar la pendiente a través de,
La idea anterior puede retomarse como base para determinar una aproximación
a la derivada de una función, junto con estrategias que mejoren dicha
aproximación.
Métodos de Integración Numérica
Dada una función f definida sobre un intervalo [a,b], estamos interesados en
calcular.
Suponiendo que esta integral tenga sentido para la función f. La cuadratura o
integración numérica consiste en obtener fórmulas aproximadas para calcular la
integral J(f) de f. Estos métodos son de gran utilidad cuando la integral no se
puede calcular por métodos analíticos, su cálculo resulta muy costoso y estamos
interesados en una solución con precisión finita dada o bien sólo disponemos de
una tabla de valores de la función (es decir, no conocemos la forma analítica de f).
Integración interpolación polinomial
Una estrategia muy útil para calcular el valor numérico de la integral dada por la
ecuación (74) consiste en reemplazar f por otra función g, fácil de integrar, que
aproxima a f de forma adecuada. Si, se deduce que:
Los polinomios son buenos candidatos para el papel de g. De hecho, g puede
ser un polinomio que interpola a f en cierto conjunto de nodos5.
Supongamos que deseamos calcular la integral (74). Podemos elegir una serie
de nudos, en el intervalo [a, b] e iniciar un proceso de interpolación de Lagrange.
El polinomio de grado menor o igual a n que interpola a f en los nudos es:
Regla del trapecio
Si en la expresión (76) empleamos polinomios de grado n=1 y tomamos como
nudos x0=a y x1=b, tenemos el caso más sencillo posible, en donde los
polinomios de interpolación son:
Esta expresión se conoce como regla del trapecio y proporciona un resultado
exacto para todas las funciones de grado menor o igual a 1.
Regla de Simpson
Empleando un razonamiento similar al anterior y tomando un polinomio de
grado n=2 para interpolar a f, obtenemos la conocida regla de Simpson:
Que es exacta para todos los polinomios de grado <=2 y curiosamente, exacta
para todos los polinomios de grado <=3. En los cálculos prácticos se emplea,
generalmente, la regla de Simpson compuesta, en la que el intervalo de
integración [a,b] se divide en un número par, n, de subintervalos. Tenemos
entonces:
Método de Euler
El Método de Euler o de las Tangentes constituye el primer y más sencillo
ejemplo de método numérico para la resolución de un problema de valor inicial:
y 0 = f(x, y), y(x0) = y0
Donde suponemos además que se verifican las hipótesis del Teorema de
Picard 1, y en consecuencia existe solución única para el problema.
Interpretando la e.d.o. y 0 = f(x, y) como un campo de direcciones en el plano x
− y Y la condición inicial y(x0) = y0 como un punto (x0, y0) de dicho plano,
podemos aproximar la función solución y(x) por medio de la recta tangente a la
misma que pasa por ese punto:
y(x) ∼= y0 + f(x0, y0) (x − x0)
Métodos de Runge-Kutta
La idea general de los Métodos de Runge-Kutta es sustituir el Problema de
Valor Inicial:
Y´= f(x,y)
Y(x0)= y0
Por la ecuación integral equivalente
Entonces y=y0+
Para proceder a aproximar esta última integral mediante un método numérico
adecuado (recordemos que y(x) es desconocida). Si nuevamente planteamos el
problema “paso a paso” tendremos:
Yn+1= Yn +
Método de Runge-Kutta de segundo orden
La primera opción que podemos aplicar es integrar mediante el método de los
trapecios, es decir tomando:
h(f(xn,yn)) + f(xn+1,yn+1)
Método de Runge-Kutta de tercer orden
Se trata de la misma idea pero integrando por el Método de Simpson, entonces:
Método de Runge-Kutta de cuarto orden
Los Métodos de Runge-Kutta de cuarto orden se deducen de una manera
similar a la expuesta en la sección anterior para el caso de tercer orden. Ahora se
introduce un nuevo paso intermedio en la evaluación de la derivada. Una vez más
se presentan varias opciones en la evaluación y es posible ajustar de tal manera
que se garantice el error local de manera proporcional a h 5 (es decir garantizando
exactitud en el cuarto orden en el polinomio de Taylor), lo cual lleva a un error
global proporcional a h 4. El Método de cuarto orden más habitual es el
determinado por las formulas siguientes:
K1= hf(xn,yn)
K2= hf
K3= hf
K4= hf
Yn+1= yn+
Que al igual que el método de tercer orden está basado en el método de
interacción de Simpson. Los errores local y global son en este caso proporcionales
a h 5 y h 4 respectivamente.
Método de Jacobi
El método Jacobi es el método iterativo para resolver sistemas de ecuaciones
lineales más simple y se aplica solo a sistemas cuadrados, es decir a sistemas
con tantas incógnitas como ecuaciones.
1 Primero se determina la ecuación de recurrencia. Para ello se
ordenan las ecuaciones y las incógnitas. De la ecuación i se despeja la
incógnita i. En notación matricial se escribirse como:
X= C + Bx
Donde x es el vector de incógnitas.
2. Se toma una aproximación para las soluciones y a ´esta se le designa por xo.
3. Se itera en el ciclo que cambia la aproximación.
Xi+1= c + Bxi
Convergencia y convergencia en Jacobi
Uno de los principales problemas de los métodos iterativos es la garantía de
que el método va a converger, es decir, va a producir una sucesión de
aproximaciones cada vez efectivamente más próximas a la solución. En el caso
del método de Jacobi no existe una condición exacta para la convergencia. Lo
mejor es una condición que garantiza la convergencia, pero en caso de no
cumplirse puede o no haberla es la siguiente: Si la matriz de coeficientes original
del sistema de ecuaciones es diagonalmente dominante, el método de Jacobi
seguro converge.
El Método de Gauss-Seidel
El método de Gauss-Seidel es muy semejante al método de Jacobi. Mientras
que en el de Jacobi se utiliza el valor de las incógnitas para determinar una nueva
aproximación, en el de Gauss-Seidel se va utilizando los valores de las incógnitas
recién calculados en la misma iteración, y no en la siguiente. Por ejemplo, en el
método de Jacobi se obtiene en el primer cálculo xi+1, pero este valor de x no se
utiliza sino hasta la siguiente iteración. En el método de Gauss-Seidel en lugar de
eso se utiliza de xi+1 en lugar de xi en forma inmediata para calcular el valor de
yi+1 de igual manera procede con las siguientes variables; siempre se utilizan las
variables recién calculadas.