Pagina web Análisis Numérico

22
UNIVERSIDAD FERMÍN TORO VICERECTORADO ACÁDEMICO FACULTAD DE INGENIERIA ESCUELA DE ELECTRICIDAD Análisis Numérico

Transcript of Pagina web Análisis Numérico

Page 1: Pagina web Análisis Numérico

UNIVERSIDAD FERMÍN TORO

VICERECTORADO ACÁDEMICO

FACULTAD DE INGENIERIA

ESCUELA DE ELECTRICIDAD

Análisis Numérico

Edisson Adan CI: 23488760

Profesor: Domingo Méndez.

Sección: SAIA B

Page 2: Pagina web Análisis Numérico

Teoría de interpolación

Polinomios Interpolantes de Newton-Gregory y Gauss

Polinomio Interpolante de Newton-Gregory Cuando la función ha sido tabulada,

se comporta como un polinomio, se le puede aproximar al polinomio que se le

parece. Una forma sencilla de escribir un polinomio que pasa por un conjunto de

puntos equiespaciados, es la fórmula del Polinomio Interpolante de Newton-

Gregory (en avance y retroceso).

La fórmula usa la notación, que es el número de combinaciones de s cosas

tomadas de n a la vez, lo que lleva a razones factoriales. Donde s viene dada por:

x es el valor a interpolar el polinomio obtenido; Xo viene a ser el punto de partida

para seleccionar los valores que serán seleccionados de la tabla de diferencias,

formando una fila diagonal hacia abajo en el caso de la fórmula de avance; en

caso de la fórmula de retroceso los valores forman una fila diagonal hacia arriba y

a la derecha. Y ha viene a ser la longitud o distancia entre los valores de xi.

Polinomio Interpolante de Gauss

Hay una gran variedad de fórmulas de interpolación además del Método de

Newton-Gregory, difieren de la forma de las trayectorias tomadas en la tabla de

diferencias; Por ejemplo la fórmula del Polinomio Interpolante de Gauss (en

avance y retroceso), donde la trayectoria es en forma de Zig-Zag, es decir los

valores desde el punto de partida Xo serán seleccionados en forma de zig-zag.

Interpolación De Hermite

Aquí buscamos un polinomio por pedazos Hn(x) que sea cúbico en cada sub-

intervalo, y que interpole a f(x) y f'(x) en los puntos. La función Hn(x) queda

determinada en forma única por estas condiciones y su cálculo requiere de la

solución de n sistemas lineales de tamaño 4x4 cada uno. La desventaja de la

interpolación de Hermite es que requiere de la disponibilidad de los lo cual no es el

caso en muchas en muchas aplicaciones.

Interpolación Usando Splines

Page 3: Pagina web Análisis Numérico

Los dos tipos de polinomios por pedazos que hemos discutidos hasta ahora

tienen la desventaja de que su segunda derivada no es continua en los puntos de

interpolación. Se ha observado que en aplicaciones gráficas, el ojo humano es

capaz de detectar discontinuidades en las segundas derivadas de una función,

haciendo que los gráficos con este tipo de funciones no luzcan uniformes. Esto

motiva el uso de los splines que son funciones s(x) continuas por pedazos con las

siguientes propiedades: 1. s(x) es polinomio cúbico en. 2. existen y son continuas

en. 3. s(x) interpola a la función f en los datos. 4. s(x) es continua en el intervalo.

Si escribimos, entonces tenemos un total de 4n desconocidas. Las condiciones 2)

y 4) nos dan 3(n-1) ecuaciones mientras que de 3) obtenemos n+1 para un total

de 4n-3(n-1)-(n+1)=2 grados de libertad. Estos grados de libertad se fijan

imponiendo condiciones de frontera adicionales en s(x).

Polinomio Interpolante De Lagrange

Para construir un polinomio de grado menor o igual que n que pase por los n+1

puntos: donde se supone que si i ¹ j. Este Polinomio Pn es la fórmula del Polinomio

Interpolante de Lagrange. Esta fórmula si puede aplicarse independientemente del

espaciamiento de la tabla, pero tiene el inconveniente de que no se conoce el

grado del polinomio. Como no se conoce, se tiene que determinar iterativamente.

Se propone un grado, se realiza la interpolación, se propone el siguiente grado, se

vuelve a interpolar y se compara con algún criterio de convergencia, si se cumple

terminamos si no, se repite el procedimiento.

Sistema de numeración y errores

Un sistema de numeración es el conjunto de símbolos y reglas que se utilizan

para la representación de datos numéricos y cantidades. Se caracteriza por su

base que es el número de símbolos distintos que utiliza, y además es el

coeficiente que determina cual es el valor de cada símbolo dependiendo de la

posición que ocupe. Los sistemas de numeración actuales son sistemas

posicionales en los que el valor relativo que representa cada símbolo o cifra de

una determinada cantidad depende de su valor absoluto y de la posición relativa

que ocupa dicha cifra con respecto a la coma decimal.

Page 4: Pagina web Análisis Numérico

El sistema decimal

Es un sistema de numeración en el que las cantidades se representan

utilizando como base el número diez, por lo que se compone de las cifras: cero

(0); uno (1); dos (2); tres (3); cuatro (4); cinco (5); seis (6); siete (7); ocho (8) y

nueve (9).

El sistema binario

Es un sistema de numeración en base 2, en el que los números se representan

utilizando solamente las cifras cero y uno (0 y 1). Los ordenadores trabajan

internamente con dos niveles de voltaje, por lo que su sistema de numeración

natural es el sistema binario (encendido 1, apagado 0).

Cada cifra o dígito de un número representado en este sistema se denomina

BIT (contracción de binary digit).

Para la medida de cantidades de información representadas en binario se

utilizan una serie de múltiplos del bit que poseen nombre propio; estos son:

1 bit = unidad mínima de información.

8 bits = 1 Byte

1 byte =1 letra, numero, símbolo de puntuación.

Unidades de medida de almacenamiento

1,024 bytes = 1 Kilobyte, Kbyte o KB

1,024 KB= 1 Megabyte, Mbyte o MB (1,048,576 bytes)

1,024 MB= 1 Gigabyte, Gbyte o GB (1,073,741,824 bytes)

1,024 GB= 1 Terabyte, Tbyte o TB (1,099,511,627,776 bytes)

1,024 TB= 1 Pentabyte, Pbyte o PB (1,125,899,906,842,624 bytes)

Sistema Hexadecimal

El sistema hexadecimal, a veces abreviado como hex, es el sistema de

numeración posicional de base 16 empleando por tanto 16 símbolos. Su uso

actual está muy vinculado a la informática y ciencias de la computación.

Page 5: Pagina web Análisis Numérico

En principio dado que el sistema usual de numeración es de base decimal y,

por ello, sólo se dispone de diez dígitos, se adoptó la convención de usar las seis

primeras letras del alfabeto latino para suplir los dígitos que nos faltan. El conjunto

de símbolos sería, por tanto, el siguiente:

Error absoluto

Es la diferencia entre el valor de la medida y el valor tomado como exacto.

Puede ser positivo o negativo, según si la medida es superior al valor real o

inferior (la resta sale positiva o negativa). Tiene unidades, las mismas que las de

la medida. Sin embargo, para facilitar el manejo y el análisis se emplea el error

absoluto definido como: EA = | P* - P |

Error relativo

Es el cociente (la división) entre el error absoluto y el valor exacto. Si se

multiplica por 100 se obtiene el tanto por ciento (%) de error. Al igual que el error

absoluto puede ser positivo o negativo (según lo sea el error absoluto) porque

puede ser por exceso o por defecto. No tiene unidades. Y el error relativo como

ER = | P* - P| / P, si P =/ 0

El error relativo también se puede multiplicar por el 100% para expresarlo como:

ERP = ER x 100

Errores de Redondeo

Casi la totalidad de los números reales requieren, para su representación

decimal, de una infinidad de dígitos. En la práctica, para su manejo sólo debe

considerarse un número finito de dígitos en su representación, procediéndose a su

determinación mediante un adecuado redondeo.

Los errores de redondeo se deben a que las computadoras sólo guardan un

número finito de cifras significativas durante un cálculo. Las computadoras realizan

esta función de maneras diferentes. Por ejemplo, si sólo se guardan siete cifras

Page 6: Pagina web Análisis Numérico

significativas, la computadora puede almacenar y usar "pi" como "pi" = 3.141592,

omitiendo los términos restantes y generando un error de redondeo.

Ya que la mayor parte de las computadoras tiene entre 7 y 14 cifras

significativas, los errores de redondeo parecerían no ser muy importantes.

Errores de Truncamiento

Los errores de truncamiento son aquellos que resultan al usar una aproximación

en lugar de un procedimiento matemático exacto. Además para obtener

conocimiento de las características de estos errores se regresa a la formulación

matemática usada ampliamente en los métodos numéricos para expresar

Funciones en forma polinomial.

Teorema de Taylor

El proceso de derivación de funciones reales de variable real puede obviamente

iterarse, obteniendo la segunda y sucesivas derivadas de una función. Igual que la

derivabilidad de una función en un punto permitía aproximar la función mediante

un polinomio de grado menor o igual que uno, la existencia de la derivada n-ésima

en un punto dará lugar a una aproximación aún mejor, mediante un polinomio de

grado menor o igual que n, llamado polinomio de Taylor. El error que se comete al

hacer esta aproximación, es decir, la diferencia entre la función de partida y su

polinomio de Taylor, se conoce como resto de Taylor. La validez de la

aproximación se cuantifica mediante la llamada fórmula infinitesimal del resto,

porque describe la “rapidez” con la que el resto de Taylor tiende a cero al

acercarnos al punto en cuestión. Una estimación aún más precisa se consigue

mediante la llamada fórmula de Taylor, que describe con exactitud el resto de

Taylor y es un resultado análogo al Teorema del Valor Medio, pero involucrando

las derivadas sucesivas de una función.

Teorema del valor medio (Lagrange)

Page 7: Pagina web Análisis Numérico

Si f (x) es continua en [a, b] y derivable en (a, b), entonces existe algún punto c

(a, b) tal que = f’(c)

Interpretación geométrica: existe un punto perteneciente al intervalo en el que

la tangente a f (x) es paralela a la secante que pasa por los puntos de abscisa a y

b. De otro modo: existe un punto del intervalo en el que la tasa de variación

instantánea coincide con la tasa de variación media de todo el intervalo.

Teorema de Rolle

  Sea f una función que verifica las siguientes hipótesis:

-  Es continua en el intervalo cerrado [a, b]

-  Es derivable en el intervalo abierto (a, b)

-  Toma el mismo valor en los extremos del intervalo, es decir f(a) = f (b)

Entonces, existe un punto c que pertenece (a, b) tal que f´(c) = 0, es decir, con

tangente horizontal.

Teorema del Valor Intermedio

La hipótesis de este teorema es que contamos con una función F que es

continua en un intervalo cerrado [a,b].

Se afirma que, en tal caso, la función alcanzará cualquier valor intermedio,

comprendido entre F(a) y F(b).

Observa que como el intervalo es cerrado, existe tanto F(a) como F (b). Si

fijamos un valor concreto, digamos k, comprendido entre F(a) y F (b), el teorema

nos garantiza que debe existir al menos un cierto valor x del intervalo (a,b) para el

Page 8: Pagina web Análisis Numérico

cual F(x) = k. Pero solo nos asegura que tiene que haber ese valor, no nos dice

nada de cómo encontrarlo.

Método de Bisección

Algoritmo del método de Bisección El método de Bisección para la resoluci´0on

de la ecuación f(x) = 0 se basa en el Teorema de Bolzano que nos asegura la

existencia de, al menos, una raíz de una función f(x) en un cierto intervalo [a, b],

bajo ciertas condiciones.

Teorema de Bolzano

Sea f: [a, b] → R una función continua en [a, b] tal que f(a)f(b) < 0. Entonces

existe c ∈ (a, b) tal que f(c) = 0.

Supongamos que f(x) es continua y cambia de signo en los extremos de [a, b].

Basándonos en el anterior teorema, podemos aproximar una solución de la

ecuación f(x) = 0 dividiendo el intervalo inicial en dos subintervalos iguales y

eligiendo aquel en el que f(x) cambia de signo. Después se repite el proceso hasta

que se verifique algún criterio de parada.

Algoritmo del Método de Bisección

1. a0 = a, b0 = b

2. Para n = 0, 1,. . ., hacer:

mn = 1 2 (an + bn)

Si f (an) f(mn) < 0, tomar an+1 = an, bn+1 = mn; en caso contrario, tomar an+1

= mn, bn+1 = bn.

Algoritmo del Método de Falsa Posición

Se trata de realizar un refinamiento del Método de de Bisección, eligiendo la

aproximación m a distancias de a y b proporcionales a f(a) y f(b). La ecuación de

la recta que pasa por los puntos (a, f(a)) y (b, f(b)) es

Page 9: Pagina web Análisis Numérico

= , de donde se tiene que el corte con el eje OX es, haciendo x

= 0 y despejando y, el valor m=

Algoritmo del Método de Falsa Posición

1. a0 = a, b0 = b

2. Para n = 0, 1,. . ., hacer:

mn = anf(bn) − bnf(an) f(bn) − f(an)

Si f(an)f(mn) < 0, tomar an+1 = an, bn+1 = mn; en caso contrario, tomar an+1 =

mn, bn+1 = bn.

Método de la secante

Se trata de un método iterativo en el que, en cada paso, se calcula una

aproximación de la solución en lugar de un intervalo que la contiene. 7 Se parte de

x0 = a y x1 = b y se calcula, iterativamente para cada n ≥ 1, la intersección de la

secante que une los puntos (xn−1, f(xn−1) y (xn, f(xn)) con el eje de abscisa,

obteniéndose la abscisa.

xn+1=

Método de Newton-Raphson

Se trata de llevar el límite el método de la secante y, por tanto, en cada iteración

n, considerar la recta tangente a f(x) en (xn, f(xn)) y tomar como siguiente

aproximación xn+1 la intersección de dicha tangente con el eje de abscisas. Por

tanto, teniendo en cuenta que la ecuación de la recta tangente a la gráfica de f(x)

en el punto (xn, f(xn)) es:

Y − f(xn) = f 0 (xn)(x − xn), se tiene que

Xn+1=xn-

Diferenciación e Integración Numérica

Una integral definida tiene la forma,

Page 10: Pagina web Análisis Numérico

Donde a, b son el límite inferior y superior de integración, respectivamente, f(x)

es la función a integrar y dx es la diferencial de x.

La integral, geométricamente, representa el área delimitada por el lugar

geométrico de la función, f(x), el eje de la abscisas, y la dos rectas verticales x = a

y x = b, ver la figura,

Cuando, la integral definida es muy difícil o de plano imposible de resolver,

existen estrategias que permiten tener una solución aproximada. La integral

definida permite que, geométricamente, se determine una aproximación a través

de trapecios. Otra forma de obtener una solución aproximada a la integral definida

es tratar de ajustar un polinomio al lugar geométrico de la función a integrar, y así

en vez de integrar la función f(x), se integra el polinomio Pn(x),

Al igual que la integral, la derivada tiene un significado geométrico que permite

una aproximación numérica. Así, la derivada representa, geométricamente, la

pendiente de una recta tangente,

Page 11: Pagina web Análisis Numérico

La recta es tangente al lugar geométrico de la función f(x). Toman dos puntos

alrededor del punto de tangencia es posible representar la pendiente a través de,

La idea anterior puede retomarse como base para determinar una aproximación

a la derivada de una función, junto con estrategias que mejoren dicha

aproximación.

Métodos de Integración Numérica

Dada una función f definida sobre un intervalo [a,b], estamos interesados en

calcular.

Suponiendo que esta integral tenga sentido para la función f. La cuadratura o

integración numérica consiste en obtener fórmulas aproximadas para calcular la

integral J(f) de f. Estos métodos son de gran utilidad cuando la integral no se

puede calcular por métodos analíticos, su cálculo resulta muy costoso y estamos

interesados en una solución con precisión finita dada o bien sólo disponemos de

una tabla de valores de la función (es decir, no conocemos la forma analítica de f).

Integración interpolación polinomial

Page 12: Pagina web Análisis Numérico

Una estrategia muy útil para calcular el valor numérico de la integral dada por la

ecuación (74) consiste en reemplazar f por otra función g, fácil de integrar, que

aproxima a f de forma adecuada. Si, se deduce que:

Los polinomios son buenos candidatos para el papel de g. De hecho, g puede

ser un polinomio que interpola a f en cierto conjunto de nodos5.

Supongamos que deseamos calcular la integral (74). Podemos elegir una serie

de nudos, en el intervalo [a, b] e iniciar un proceso de interpolación de Lagrange.

El polinomio de grado menor o igual a n que interpola a f en los nudos es:

Regla del trapecio

Si en la expresión (76) empleamos polinomios de grado n=1 y tomamos como

nudos x0=a y x1=b, tenemos el caso más sencillo posible, en donde los

polinomios de interpolación son:

Page 13: Pagina web Análisis Numérico

Esta expresión se conoce como regla del trapecio y proporciona un resultado

exacto para todas las funciones de grado menor o igual a 1.

Regla de Simpson

Empleando un razonamiento similar al anterior y tomando un polinomio de

grado n=2 para interpolar a f, obtenemos la conocida regla de Simpson:

Que es exacta para todos los polinomios de grado <=2 y curiosamente, exacta

para todos los polinomios de grado <=3. En los cálculos prácticos se emplea,

generalmente, la regla de Simpson compuesta, en la que el intervalo de

integración [a,b] se divide en un número par, n, de subintervalos. Tenemos

entonces:

Page 14: Pagina web Análisis Numérico

Método de Euler

El Método de Euler o de las Tangentes constituye el primer y más sencillo

ejemplo de método numérico para la resolución de un problema de valor inicial:

y 0 = f(x, y), y(x0) = y0

Donde suponemos además que se verifican las hipótesis del Teorema de

Picard 1, y en consecuencia existe solución única para el problema.

Interpretando la e.d.o. y 0 = f(x, y) como un campo de direcciones en el plano x

− y Y la condición inicial y(x0) = y0 como un punto (x0, y0) de dicho plano,

podemos aproximar la función solución y(x) por medio de la recta tangente a la

misma que pasa por ese punto:

y(x) ∼= y0 + f(x0, y0) (x − x0)

Métodos de Runge-Kutta

La idea general de los Métodos de Runge-Kutta es sustituir el Problema de

Valor Inicial:

Y´= f(x,y)

Y(x0)= y0

Por la ecuación integral equivalente

Entonces y=y0+

Para proceder a aproximar esta última integral mediante un método numérico

adecuado (recordemos que y(x) es desconocida). Si nuevamente planteamos el

problema “paso a paso” tendremos:

Yn+1= Yn +

Método de Runge-Kutta de segundo orden

Page 15: Pagina web Análisis Numérico

La primera opción que podemos aplicar es integrar mediante el método de los

trapecios, es decir tomando:

h(f(xn,yn)) + f(xn+1,yn+1)

Método de Runge-Kutta de tercer orden

Se trata de la misma idea pero integrando por el Método de Simpson, entonces:

Método de Runge-Kutta de cuarto orden

Los Métodos de Runge-Kutta de cuarto orden se deducen de una manera

similar a la expuesta en la sección anterior para el caso de tercer orden. Ahora se

introduce un nuevo paso intermedio en la evaluación de la derivada. Una vez más

se presentan varias opciones en la evaluación y es posible ajustar de tal manera

que se garantice el error local de manera proporcional a h 5 (es decir garantizando

exactitud en el cuarto orden en el polinomio de Taylor), lo cual lleva a un error

global proporcional a h 4. El Método de cuarto orden más habitual es el

determinado por las formulas siguientes:

K1= hf(xn,yn)

K2= hf

K3= hf

K4= hf

Yn+1= yn+

Que al igual que el método de tercer orden está basado en el método de

interacción de Simpson. Los errores local y global son en este caso proporcionales

a h 5 y h 4 respectivamente.

Método de Jacobi

Page 16: Pagina web Análisis Numérico

El método Jacobi es el método iterativo para resolver sistemas de ecuaciones

lineales más simple y se aplica solo a sistemas cuadrados, es decir a sistemas

con tantas incógnitas como ecuaciones.

1 Primero se determina la ecuación de recurrencia. Para ello se

ordenan las ecuaciones y las incógnitas. De la ecuación i se despeja la

incógnita i. En notación matricial se escribirse como:

X= C + Bx

Donde x es el vector de incógnitas.

2. Se toma una aproximación para las soluciones y a ´esta se le designa por xo.

3. Se itera en el ciclo que cambia la aproximación.

Xi+1= c + Bxi

Convergencia y convergencia en Jacobi

Uno de los principales problemas de los métodos iterativos es la garantía de

que el método va a converger, es decir, va a producir una sucesión de

aproximaciones cada vez efectivamente más próximas a la solución. En el caso

del método de Jacobi no existe una condición exacta para la convergencia. Lo

mejor es una condición que garantiza la convergencia, pero en caso de no

cumplirse puede o no haberla es la siguiente: Si la matriz de coeficientes original

del sistema de ecuaciones es diagonalmente dominante, el método de Jacobi

seguro converge.

El Método de Gauss-Seidel

El método de Gauss-Seidel es muy semejante al método de Jacobi. Mientras

que en el de Jacobi se utiliza el valor de las incógnitas para determinar una nueva

aproximación, en el de Gauss-Seidel se va utilizando los valores de las incógnitas

recién calculados en la misma iteración, y no en la siguiente. Por ejemplo, en el

método de Jacobi se obtiene en el primer cálculo xi+1, pero este valor de x no se

utiliza sino hasta la siguiente iteración. En el método de Gauss-Seidel en lugar de

eso se utiliza de xi+1 en lugar de xi en forma inmediata para calcular el valor de

Page 17: Pagina web Análisis Numérico

yi+1 de igual manera procede con las siguientes variables; siempre se utilizan las

variables recién calculadas.