Aprendizaje y Aplicacioens de las redes neuronales

5
Aprendizaje Las redes neuronales tienen dos principales formas de adquirir conocimiento basadas en sus experiencias, es decir, de aprender. Aprendizaje supervisado Las redes neuronales deben de ser entrenadas, ya que no están programadas tradicionalmente, sino debe de condicionarse cada neurona, para obtener el resultado deseado. (Brookshear, 2012). Una técnica usual consiste en el “backpropagation”, la cual es utilizada en redes multicapa, porque poseen una gran cantidad de entradas y salidas, con pesos diferentes. (Coppin, 2004). Para este algoritmo se necesita que las neuronas utiliza en la función sigmoidea, mencionada anteriormente. Cada iteración involucra tanto el suministrarle datos a la red, y luego se procede a retroalimentar, propagándolos desde las salidas hacia las entradas, lo cual le da el nombre al método. Este proceso se repite hasta obtener de manera casi certera los valores deseados, minimizando los errores. A pesar de eso, es bastante ineficiente para la mayoría de los problemas. (Coppin, 2004) Pero existe una manera más natural de producir aprendizaje, descubierta por Donald Hebb en 1949. Esta, decía que dos neuronas humanas reforzaban la sinapsis entre ellas cuando la activación de esta era continua, es decir entre más se presentaba la conexión, más sencillo era recordarla. Esto es fácilmente inducible en una red, ya que nada más se “inyectan” los valores claves para obtener resultados, produciendo tendencia a esos resultados. (Hebb, 1949). Aprendizaje NO supervisado Las redes neuronales con aprendizaje no supervisado son aquellas que no necesitan un asesor externo para llevar a cabo su aprendizaje. La red no recibe confirmación externa de si la salida generada es correcta o incorrecta. El aprendizaje no supervisado consiste en que la red descubra por sí misma regularidades o correlaciones de los datos de entrada y así poder llegar a generar la salida esperada (Pelaéz, 2012).

description

Breve referencia acerca de las aplicaciones y la escripción del aprendizaje de las redes neuronales

Transcript of Aprendizaje y Aplicacioens de las redes neuronales

Page 1: Aprendizaje y Aplicacioens de las redes neuronales

AprendizajeLas redes neuronales tienen dos principales formas de adquirir conocimiento basadas en sus experiencias, es decir, de aprender.

Aprendizaje supervisado

Las redes neuronales deben de ser entrenadas, ya que no están programadas tradicionalmente, sino debe de condicionarse cada neurona, para obtener el resultado deseado. (Brookshear, 2012). Una técnica usual consiste en el “backpropagation”, la cual es utilizada en redes multicapa, porque poseen una gran cantidad de entradas y salidas, con pesos diferentes. (Coppin, 2004).

Para este algoritmo se necesita que las neuronas utiliza en la función sigmoidea, mencionada anteriormente. Cada iteración involucra tanto el suministrarle datos a la red, y luego se procede a retroalimentar, propagándolos desde las salidas hacia las entradas, lo cual le da el nombre al método. Este proceso se repite hasta obtener de manera casi certera los valores deseados, minimizando los errores. A pesar de eso, es bastante ineficiente para la mayoría de los problemas. (Coppin, 2004)

Pero existe una manera más natural de producir aprendizaje, descubierta por Donald Hebb en 1949. Esta, decía que dos neuronas humanas reforzaban la sinapsis entre ellas cuando la activación de esta era continua, es decir entre más se presentaba la conexión, más sencillo era recordarla. Esto es fácilmente inducible en una red, ya que nada más se “inyectan” los valores claves para obtener resultados, produciendo tendencia a esos resultados. (Hebb, 1949).

Aprendizaje NO supervisado

Las redes neuronales con aprendizaje no supervisado son aquellas que no necesitan un asesor externo para llevar a cabo su aprendizaje. La red no recibe confirmación externa de si la salida generada es correcta o incorrecta. El aprendizaje no supervisado consiste en que la red descubra por sí misma regularidades o correlaciones de los datos de entrada y así poder llegar a generar la salida esperada (Pelaéz, 2012).

El fundamento de Hebb también puede ser utilizado en las redes no supervisadas, ya que al encontrar que cierta conexión existe de manera habitual, va a tender más hacia esta. (Matich, 2001).

Teuvo Kohonen, científico finlandés, en la década de los 80’s inicio con el desarrollo de una forma de auto-ordenar información, lo cual resultó en los Mapas de Auto Organización (SOM por sus siglas en inglés) o Mapas de Kohonen.(n.d, s.f) El propósito de un mapa Kohonen es agrupar los datos de entrada en una cantidad determinada de grupos. Para lograr esto, utiliza el algoritmo “winner-take-it-all”, donde las neuronas de mayor activación son las “ganadoras”. Un mapa de Kohonen no trae grupos ya predeterminados, el mismo determina la segmentación más útil. De esta manera, un mapa de Kohonen es particularmente útil para agrupar datos en donde los grupos no son conocidos de antemano (Coppin, 2004).

Page 2: Aprendizaje y Aplicacioens de las redes neuronales

Un mapa de Kohonen está formado por dos capas: la capa de entradas y la capa de grupos.

El método utilizado para formar un mapa de Kohonen es el sigue: Inicialmente, todos los pesos se ajustan en pequeños valores aleatorios. La tasa de aprendizaje, también se establece, por lo general a un valor positivo pequeño. Un vector de entrada es presentado a la capa de entradas. Esta capa se alimenta de los datos de entrada de la capa de grupos. La neurona en la capa de grupos que más estrechamente coincida con los datos de entrada es declarada ganadora. Esta neurona proporciona la clasificación de salida del mapa y también actualiza sus pesos.

Para determinar qué neurona gana, sus pesos se tratan como un vector, y este vector se compara con el vector de entrada. La neurona cuyo peso vector está más cerca del vector de entrada es el ganador (Coppin, 2004).

Aplicaciones Se pueden describir tres tipos de aplicaciones para las redes neuronales: las aplicaciones candidatas, las aplicaciones en desarrollo y las aplicaciones demostradas. Las primeras consisten en problemas que pueden resolverse con esta tecnología, pero que aún no han sido probados. Las aplicaciones en desarrollo son las que están pruebas, y ya se tiene un prototipo de red que pueda aplicársele al problema. Las aplicaciones ya demostradas son en las que ya están siendo utilizadas, incluso comercialmente, para resolver diferentes tipos de problemas (Basogain, 2008).

Por ejemplo, el modelo de Widrow y Hoff de 1960, ADELINE, es utilizado para el diseño y la creación de filtros de ruido, para eliminarlo en diferentes tipos de señales portadoras de información, y de módems. La Red de Backpropgation es utilizada en el proyecto de la máquina de escribir neural fonética (Sotolongo y Guzmán, 2001).

El modelo de los mapas auto-organizados ha sido aplicado en software tales como el Viscovery SOMine (C). Este software, lo define su página web, es una aplicación de escritorio para la minería de datos explorativa. Es de los más potentes del mercado debido a la gran cantidad de variables

Page 3: Aprendizaje y Aplicacioens de las redes neuronales

que puede manejar, y la cantidad de información que puede representar (VAUTRON RECHENZENTRUM AG, 2013).

Las redes neuronales y el software de aprendizaje han alcanzado niveles tan avanzados de aplicación, que, según Jeff Dean y Andrew Ng de Google, las usamos docenas de veces al día sin darnos cuenta. La máquina de escribir fonética es usado en software de reconocimiento de voz; incluso los filtros modernos de spam utilizan redes neuronales (Dean & Ng, 2012).Una de las aplicaciones más modernas e impresionantes de las redes neuronales es el Google Brain. Este es un experimento a larga escala de Google, que usa el poder de 16 000 procesadores, para lograr una red neuronal mucho más eficiente y con infinitas utilidades (Deep Learning, 2012). Pretende utilizar información sin identificar (unlabeled data) para lograr el aprendizaje. Con esta red, se utilizarían imágenes diferentes y al azar, sin etiquetar, y la red por sí sola empezaría a reconocer algunos objetos dentro de imágenes e incluso videos.

Pelaéz Chávez, N. (2012). Aprendizaje no supervisado y el algoritmo wake-sleep en redes neuronales. HUAJUAPAN DE LEON, OAXACA.: UNIVERSIDAD TECNOLOGICA DE LA MIXTECA. Retrieved from http://jupiter.utm.mx/~tesis_dig/11612.pdf

Brookshear, J., & Smith, D. (2012). Artificial Intelligence. In Computer science: An overview(11th ed.). Boston: Addison-Wesley.Coppin, B. (2004). Artificial intelillence iluminated. (1 ed., Vol. 1, p. 316). Canada: Jones and Bartlett Publishers.

Hebb, D. O. (1949). The organization of behavior: a neuropsychological theory. New York: Wiley and Sons.

1 Google Brain ha sido capaz de reconocer la forma de caras humanas y de gatos, luego de miles de datos analizados.

Page 4: Aprendizaje y Aplicacioens de las redes neuronales

Matich, D. J. (2001). Redes neuronales: Conceptos básicos y aplicaciones.. Rosario : Universidad Tecnológica Nacional. DOI

Teuvo Kohonen. (n.d.). Retrieved November 23, 2014, from http://users.ics.aalto.fi/teuvo/

9 Basogain Olabe, X. (2008). Redes neuronales artificiales y sus aplicaciones. Bilbao, España: Universidad del País Vasco.

Sotolongo, G., & Guzmán, M. V. (2001). Aplicaciones de las redes neuronales: el caso de la biliometría. Informally published manuscript, Ciencias de la Información, UNAM, Distrito Federal, México.

VAUTRON RECHENZENTRUM AG. (2013). Viscovery somine 6. Retrieved from http://www.viscovery.net/somine/

Dean, J., & Ng, A. (2012, June 26). [Web log message]. Retrieved from http://googleblog.blogspot.com/2012/06/using-large-scale-brain-simulations-for.html

Deep Learning. (2012, December 13). Google’s large scale deep learning experiments. Retrieved from http://deeplearning.net/tag/google-brain/