Investigacion Acerca de Problemas Inversos

13

Click here to load reader

Transcript of Investigacion Acerca de Problemas Inversos

Page 1: Investigacion Acerca de Problemas Inversos

P R O B L E M A S I N V E R S O S .

INTRODUCCIÓN.

Según Menke(1989), el problema inverso es el conjunto de métodos usados para extraer información útil de nuestro entorno a partir de medidas físicas o datos. Se supone que existe algún método específico que relaciona los parámetros con los datos. El problema inverso contrasta con el problema directo, donde se predicen los datos a partir del modelo y de los parámetros. Normalmente el problema inverso es más difícil de resolver que su correspondiente directo.

La teoría de los problemas inversos es utilizada ampliamente por investigadores que trabajan con métodos geofísicos que pretender entender el funcionamiento del interior de la tierra a partir de la superficie. Sin embargo es aplicable a muchas otras ramas.

Para el famoso investigador Ruso Oleg Mikailivitch Alifanov (www.me.ua.edu/inverse/whatis.html) un problema inverso es “la solución a un problema inverso es la determinación de causas basadas en la observación de sus efectos. ". La solución de un problema inverso implica la determinación de causas desconocidas basadas en la observación de sus efectos. Este es en contraste con el problema directo correspondiente, cuya solución implica encontrar efectos basados en una descripción completa de sus causas.

Por otra parte para el acreditado astrofísico Viktor Amazaspovich Ambartsumian (http://www.phys-astro.sonoma.edu/BruceMedalists/Ambartsumian/) "La solución de un problema inverso consiste en determinar las causas desconocidas de observar o los efectos deseados." Tenga en cuenta que el área de proyecto de diseño óptima o inversa (inverso de diseño) también se incluye en esta definición. En general, los comentarios no son exactos (datos contaminados por el ruido o los errores experimentales) e incompleta. Por el contrario, los problemas directos requieren un conocimiento completo y preciso de las causas para la determinación de los efectos.

Por otra parte, el tipo de "causa" que se determinen, se puede utilizar para clasificar los problemas inversos. Sin embargo, otras clasificaciones posibles:

La naturaleza del método matemático: explícitos (inversión directa) Implícito La naturaleza del método estadístico: deterministas Estocástico La naturaleza de los bienes estimados: Condiciones iníciales, Condiciones de Frontera,

Condiciones de fuentes y sumideros La naturaleza de la solución (Beck): Estimación de parámetros, Estimación de la función.

Page 2: Investigacion Acerca de Problemas Inversos

TIPOS DE PROBLEMAS INVERSOS.[1]

RETROCESO O A POSTERIORI PROBLEMA

Aquí las condiciones iníciales deben ser encontradas.

PROBLEMA INVERSO DE ESTIMACIÓN DE COEFICIENTES Y FUNCIONES

Este es el problema clásico de estimación parámetros donde una constante en una ecuación debe ser hallada. En el ejemplo de la dinámica de las partículas, este corresponde a la estimación de la aceleración de la gravedad "g", basada en todas las demás condiciones (incluidas las condiciones iníciales).

PROBLEMA INVERSO DE FRONTERAS

Debe ser encontrado la información faltante en las fronteras de un dominio. Si las condiciones de frontera cambian con el tiempo puede ser un problema de estimación de funciones. La mayoría de los autores consultados ponen como ejemplo clásico de un problema de frontera inversa el problema inverso de conducción de calor[3] , donde la acción térmica desconocida en el límite del objeto se encuentra basada en mediciones de la temperatura en el interior del objeto.

Matemáticamente, los problemas inversos pertenecen a la clase de problemas mal condicionados. A principios del siglo XX, el matemático francés Jacques Hadamard definió un problema bien condicionado como aquel que cumple las tres condiciones siguientes [1]:

1. Existe una solución.2. La solución es única. 3. La solución tiene una dependencia continua (leve) con los datos de entrada.

De las tres condiciones de un problema bien planteado, sugeridas por Jacques Hadamard (existencia, unicidad, estabilidad de la solución o soluciones) la condición de estabilidad es la que más a menudo se pierde.

En 1963, casi medio siglo después de estas definiciones, el no menos célebre matemático ruso Andrei Nikolaevich Tikhonov (1906-1993) formuló un método para la solución numérica de problemas inversos mal-condicionados que él denominó “método de regularización”, basado en el método de los mínimos cuadrados. La causa esencial de su eficacia reside en que aporta soluciones aproximadas que dependen de los datos de cada problema. Paradójicamente Hadamard consideraba con sentido la solución numérica sólo de problemas bien planteados, pues los mal-planteados eran irremisiblemente “artificiales”. Sin embargo, la paradoja no es tal. El proceso de regularización de Tikhonov convierte un problema mal condicionado en una

Page 3: Investigacion Acerca de Problemas Inversos

aproximación que sí lo es y por lo tanto tiene solución. [2] El “arte” de aplicar métodos de regularización consiste precisamente en hallar el compromiso justo entre exactitud y estabilidad.[3][4]

MÉTODOS DE SOLUCIÓN DE PROBLEMAS INVERSOS.

Una lista incompleta de los posibles métodos de los problemas inversos es

Las inversiones directas. Descomposición de valor singular. Mínimos cuadrados y variaciones (mínimos cuadrados ponderados). Métodos de regularización. Métodos de variaciones. Otros (métodos bayesianos, filtros digitales, redes neuronales).

MÉTODO DE INVERSIÓN DIRECTA.

Para los métodos explícitos, o la inversión directa, existen métodos generales y, en general, existe un interés más académico que un esquema metodológico general a seguir. Como ejemplo podría citarse el problema inverso de identificación de la condición inicial en la conducción del calor.

DESCOMPOSICIÓN DE VALORES SINGULARES

Considerando un modelo lineal discreto expresado por d= Gm, donde d= [d1d2…dD ]T es un

vector de datos u observaciones y m=[m1m2…mM ]T es el vector de parámetros que debe ser

determinado y

Si D = M la solución formal está dada por la inversión directa: m=G-1d. En la práctica, sin embargo, la matriz G es a menudo casi-singular o singular y el procedimiento no es aplicable. Para obtener una solución se utiliza la descomposición de G en valores singulares.

Donde U y V son matrices cuadradas ortogonales. Es decir:

Page 4: Investigacion Acerca de Problemas Inversos

Las columnas de U son vectores propios de GGT y las columnas de V son valores propios de GTG.Los valores ω j

2 son autovalores ordenados de la matríz GTG. La matriz inversa de G es:

Si G no es una matriz singular. Si es cuasi-singular:

En esta situación los errores en d se verán muy amplificados y contaminarán la solución inversa. El análisis puede repetirse para los problemas indeterminados (M> D). La indeterminación en este caso, aparece de forma explícita en la descomposición de G:

Lo que significa que la inversa no existe.

MÍNIMOS CUADRADOS Y VARIACIONES.

Si la matriz G es singular o casi natural, un método natural (pero no único y no siempre el más preciso) es determinar la solución de sistema Gm = d por el método de los mínimos cuadrados:

La solución geométrica del problema de optimización se obtiene mediante la solución

algebraica con la ayuda de la inversa generalizada de Moore-Penrose G+

, donde el rango de (G) = M. Antes de continuar es importante destacar algunas observaciones relevantes.

Si nulo(G) = 0 entonces m Existe y es única para sistemas lineales. Si los errores asociados a mediciones experimentales d son independientes, aditivos y

gaussianos, entonces m corresponde a un estimador de máxima verosimilidad, resumido: Máxima Verosimilidad + hipótesis gaussiana = Mínimos Cuadrados.

Minimos cuadrados ponderados: es solo una generalización de la función de costos J(m).

Page 5: Investigacion Acerca de Problemas Inversos

Donde la matriz W es una matriz simétrica positiva y definida de dimensión DxD. Dos importantes casos de Problemas infinitos son:

- Problemas indeterminados (D>M): La solución viene dada por el nivel mínimo de mínimos cuadrados (Norma mínima de los mínimos cuadrados).

- Problemas mal condicionados: Este caso es más simple, la inversa generalizada será dad por:

MÉTODOS DE REGULARIZACIÓN.

Desde los años 60’s varios investigadores han observado que para resolver problemas mal planteados es necesario prever información adicional. Hombres como V.K. Ivanov (1962), L. D. Phillips (1962) y S. Twomey (1963) merecen puesto de honor, pero fue la obra de Andrei Nikolaevich Tikhonov en 1963, el comienzo de una formulación general de problemas mal planteados, llamado regularización o método de regularización.

Prof. Tikhonov fue un matemático destacado y trabajo en el prestigioso Instituto Steklov de Matemáticas de la Academia Rusa de Ciencias (matemáticas como A.N. Krylov, D.K. Faddeev, L.S. Pontryagin, L. S. Sobolev, A.N. Kolmogorov, A.A. Markov, forman una pequeña lista de importantes científicos del mismo instituto) y realizo importantes trabajos en topología, el análisis funcional, la matemática computacional y la física- matemática. El método de regularización consiste en determinar la solución más aproximada suave compatible con los datos de observación, para cierto nivel de ruido. Busca lasolución más suave (regular) y una información adicional que transforma el problema mal puesto en un problema bien planteado.

La implementación matemática del método es conocida como un proceso de optimización con restricciones:

Page 6: Investigacion Acerca de Problemas Inversos

Sujeto a O [u] ≤ ρ.

Entonces:

Donde A(u)=fd

representa el modelo directo y Ω[u] el o operador de regularización. La técnica de los multiplicadores de LaGrange se puede colocar en la mismafunción de costos de los objetivos de la fidelidad como parámetros del modelo directo de regularidad (suavidad) de la incógnita requerida:

En muchos casos, esta matriz es elegida como la matriz de identidad Ωα = I, dando la preferencia a soluciones con normas más pequeñas. En otros casos otros operadores (p.ej, un operador de diferencia o un operador Fourier ponderado) pueden ser usados para hacer cumplir la suavidad si se cree que el vector subyacente es mayormente continuo.

REGULARIZACIÓN DE TIKHONOV.

Un operador es expresado por :

la técnica se llama regularización de Tikhonov de orden-j. El efecto de la regularizaciónla Tikhonov-0 es el de reducir las fluctuaciones en la función u (búsqueda de funciones suaves). Ya en regularización de la 1ª orden se convierte en U(1) se aproxima a 0 donde u es aproximadamente constante.

REGULARIZACIÓN POR EL PRINCIPIO DA MÁXIMA ENTROPÍA.

De manera similar a la técnica de Tikhanov, el metodo de máxima entropía busca la regularidad global, produciendo reconstrucciones más suaves con los datos disponibles. El principio de máxima entropía fue propuesto por Jaynes (1957) como un criterio general de inferencia basadas en la teoría matemática de la información de Shannon (Shannon y Weaver, 1949). En la figura siguiente se muestran diferentes probabilidades en un fenómeno en el que 8 estados son posibles, el estado de máxima entropía se produce cuando todos los estados están igualmente probables, en la primera parte de la figura, mientras que el mínimo estado de entropía se ilustra en la segunda parte de la figura: todos los estados tienen una probabilidad cero de ocurrir, excepto uno.

Page 7: Investigacion Acerca de Problemas Inversos

Así como la regularización de Tikhonov se pueden establecer operadores de entropía de diferentes órdenes. Un término genérico para la regularización de la entropía es:

Valida para un caso discreto. En este contexto los diferentes ordenes del operador son:

Donde r(qK) representa la K-esima diferencia de la cantidad a ser estimada. La función de entropía alcanza su nivel máximo cuando S(max) = log(Nq) cuando una función de densidad de probabilidad es uniforme y tiene su valor mínimo S(min) = 0 si los valores de Rq son distribuidos por una delta de dirac.

DETERMINACIÓN DE PARÁMETROS DE OPTIMIZACIÓN.

Para obtener una teoría completa es necesario disponer de métodos para calcular el parámetro alfa de la ecuación. El parámetro de regularización es el que va a mantener el equilibrio de la diferencia entre el término cuadrático, los datos y el modelo. La literatura reporta varios métodos para la determinación del multiplicador de LaGrange (Bertero y Boccaccio, 1998), como un método de la curva L y la validación cruzada. Otra metodología se basa en el criterio de discrepancia de Morozov.

El criterio se basa en el hecho de que la diferencia o discrepancia entre los datosobservados y los datos del modelo deben tener la misma magnitud del error de medición. Por lo tanto, si está en el proceso de error de medición, *δ α es la raíz de la ecuación.

|| A(u) - f||α. = δ

SOLUCIÓN DEL PROBLEMA DE OPTIMIZACIÓN.

Una solución se obtiene al resolver el problema de optimización. Hay una gran variedad de métodos en la literatura, dividida en 2 grandes grupos: métodos deterministas y estocásticos:

Page 8: Investigacion Acerca de Problemas Inversos

o Determinísticos: descenso máximo, el método de Newton, cuasi-Newton. Gradiente conjugado, Método Simplex y método de Levenberg-Marquadt.

o Estocásticos: reconocimiento simulado (SA), Algoritmos Genéticos (GA), búsqueda de tabú, optimización extrema.

o Métodos híbridos: Combinan una estrategia de búsqueda global de métodos estocásticos con búsqueda local de métodos determinísticos (GAPlex, SAPlex)

CONCLUSIONES

Existen múltiples situaciones donde la resolución de problemas inverso se hace necesaria. A continuación se mencionan, tomadas de [1], un par de ejemplos de utilización. Uno representa mapas de conductividad y otro en estimación de perfiles de temperaturas atmosféricas.

ILUSTRACIÓN 1 MAPAS DE CONDUCTIVIDAD ELÉCTRICA VER REFERENCIA [5].

Page 9: Investigacion Acerca de Problemas Inversos

ILUSTRACIÓN 2 ESTIMACIÓN DEL PERFIL VERTICAL DE TEMPERATURA ATMOSFÉRICA. VER REFERENCIA [5].

REFERENCIAS.

[1] Tarantola, Inverse problem theory and methods for model parameter estimation, Society for Industrial Mathematics, 2005.

[2] M.L. Felipe, "Hadamard no estaba equivocado entonces," http://www.cinvestav.mx/Portals/0/Publicaciones y Noticias/Revistas/Avance y perspectiva/julsep04/7 hadamard.pdf, 2004, pp. 47-49.

[3] A.A. H.W. Engl, M. Hanke, Regularization Of Inverse Problems, 1996.

[4] K.G. Ruben D. Spies, "UN METODO DE MOLIFICACION PARA RESOLVER PROBLEMAS INVERSOS MAL CONDICIONADOS: APLICACIONES," 2005.

[5] Haroldo Fraga de Campos Velho, "PROBLEMAS INVERSOS: CONCEITOS BÁSICOS E APLICAÇÕES."