Redes Neuronales Basadas En Sistemas Difusos

Post on 20-Jun-2015

3.091 views 0 download

description

Redes Neuronales Basadas En Sistemas Difusos

Transcript of Redes Neuronales Basadas En Sistemas Difusos

UNIDAD 4UNIDAD 4

Redes Neuronales Basadas En

Sistemas Difusos.

Neuronas Difusa Generalizadas y Redes

Se considerara una red neuronal constituida por m neuronas difusas las cuales aceptan n entradas.

La fusificación dentro de una neurona puede ser en las entradas sinápticas (pesos), la operación de agregación y la función de transferencia.

Los conjuntos difusos pueden ser utilizados para describir varios aspectos de procesamiento neuronal.

Algunas convenciones frecuentes de las redes neuronales difusas son:

Entradas Sinápticas

El vector de entrada x = [x1, x2, x3,..., xn]T R para una neurona difusa se pueden ver como grados de membresía a un conjunto difuso.

Las entradas individuales xi R se tomaran para representar las señales difusas acotadas por un grado de membresía sobre el intervalo unidad.

Entradas Dendríticas Para cada j-esima neurona en una

Red las entradas dendríticas también estan limitadas por un grado de membresía sobre el intervalo unidad.

Las cantidades difusas de las entradas dendríticas son conjuntos difusos.

1,0,/)(1

uuudm

jijdij

Valores Agregados La salida del operador de

agregación en cada una de las m neuronas difusas de la Red se puede entender como un grado de membresía sobre el intervalo unidad, de modo que se tiene:

1,0,/)(1

uuuIm

jIjj

Salida De La Neurona

Finalmente la salida yj de las m neuronas difusas también se pueden visualizar como grados de membresía para un conjunto difuso:

1,0,/)(1

uuuym

jjyj

La función peso wij que transforma una entrada externa xi en una señal dendrítica dij para la j-esima neurona difusa no tienen que ser solo una ganancia simple. En general, ésta puede ser una relación difusa en todo el plano cartesiano wij = xi dij.

Tal que una unión sináptica de la relación entre las entradas externas xi y las entradas dendríticas dij asume muchas formas, la mas simple y actualmente la mas común es: dij = xi wij .

Más general:ijiij wxd

Negación Difusa El concepto de negación difusa es

utilizado para implementar las entradas de excitación e inhibición a una neurona difusa.

Se define una nueva variable:

)(

)(

asinhibitorientradaspara

asexcitatorientradaspara

ij

ij

ij d

d

Donde: ijij dd 1

Funciones De Agregación Y Activación En Neuronas Difusas

En una neurona difusa el operador de agregación puede ser una norma – T:

ij

n

ij TI

1

Alguna veces la neuronas difusas no utilizan un Umbral; en esas ocaciones el umbral estará contenido dentro del tipo de función de activación.

La función de activación es un operador de relación que transforma la membresía del conjunto difuso agregación en el conjunto difuso de respuesta neuronal.

El operador de relación corresponde a un modificador lingüístico, como MUY y mas o menos.

El papel de este modificador es aumentar o disminuir el grado para el cual las entradas externas dan alcance a el valor difuso representado por la neurona difusa jth, antes de que se convierta en una entrada externa para neuronas vecinas.

Neurona Difusa

Respuesta

ij

n

ijjjj TIy

1

Función De Activación Lineal

Caso especial de una neurona difusa simplificada:

La relación de las normas T y normas S se da a través de las leyes de De Morgan difusas.

ij

n

ij Ty

1

Neuronas DifusasCon AND Y OR

Estas neuronas emplean normas T y S para formar las entradas dendriticas al soma y para realizar la agregación.

AND:

OR:

iji

n

ij SwxTy

1

iji

n

ij TwxSy

1

La neurona AND primero realiza una norma S o una operación OR entre la entrada externa y el peso correspondiente:

AND

x1

x2

xn

yj

w1

w2

wn

ijiij wORxd

T despues utiliza una norma T o una operación AND para obtener la agregación de todas las dendrítas de entrada:

OR

x1

x2

xn

yj

w1

w2

wn

njn

jjj

wORxAND

ANDwORxANDwORxy 1111

Neuronas AND y OR Con Umbral

AND:

OR:

iji

n

ij SwxTy

0

iji

n

ij TwxSy

0

Redes Neuronales Difusas Multicapa

Las neuronas difusas se pueden conectar para formar redes multicapa.

Las redes multicapa tienen tres capas, cada una implementa una función diferente.

Red Multicapa de neuronas difusas.

x1

x2

:xn

xn+1

xn+2

:x2n

Input Layer

.

.

.

.

.

.

Output LayerHidden Layer

AND1

.

.

.

whi vjhOR1

.

.

.

AND2

ANDp

OR2

ORm

y1

y2

.

.

.ym

index=i index=h index=j

En la figura anterior la capa oculta usa neuronas AND que utilizan una norma tipo T para la agregación.

La salida de la capa oculta es denotada por Zh donde h es el índice del nodo oculto.

p1,2,...,=h )(11

inhi

n

ihii

n

ih wSxTTwSxTz

Esta es implementada en MATLAB con el producto de normas T y la suma probabilística de las normas S.

La evaluación de todas la neuronas difusas en la red multicapa puede ser combinada dentro de una sola función. El siguiente código simula la red neuronal difusa.

Donde: x es el vector de entrada.

size(x) = (patterns, inputs). w es el vector de pesos oculto.

size(w) = (inputs, hidden neurons). v es la salida del vector de pesos.

size(v) = (hidden neurons, output neurons).

y es la salida del vector.size(y) = (patterns, output neurons).

Como un simple ejemplo, suponemos que tenemos una red con 2 entradas, un nodo oculto y una salida. Dos patrones dados:

 . x=[.1 .3 .9 .7;.7 .4 .3 .6 ];% Two patterns of 2 inputs and their complements. w=[.2 .5;-.2 .8;.9 -.3;.6 .2;];% Two hidden nodes. v=[0.3 0.7];% One output node. y=fuzzy_nn(x,w,v).% Simulate the network.

y = 0.2281. 0.0803.

Red Homogénea

TAND

TAND

TAND

TAND

x1

x2

xn

TAND S (OR)

y

y1

y2

ym

Aprendizaje y Aprendizaje y adaptación de una adaptación de una

red neuronal red neuronal difusadifusa

Proceso de Aprendizaje

Proceso de Aprendizaje El procesos de entrenamiento en

una red neuronal difusa consiste en modificar los parámetros o pesos de la red para obtener una valor óptimo.

Esto requiere de una colección de pares de entrada-salida y ésto requiere de un índice que exprese el mapa de las entradas y los objetivos correspondientes.

En una neurona difusa, la conexión sináptica es representada como una relación difusa de dos dimensiones, donde hay una entrada sináptica y una salida.

El entrenamiento en neuronas difusas, en el casos más general, envuelve cambios en una relación bidimensional para cada sinapsis.

En una conexión sináptica para una jth neurona,

Donde: Se tiene una entrada externa en

el tiempo k, Xi(k), y se quiere determinar la correspondiente relación difusa Wij(k), tal que se tenga un mínimo error e(k) entre la respuesta de la neurona difusa y el objetivo deseado tj(k);

Se puede determinar o modificar el peso Wij(k) al utilizar la siguiente regla de adaptación:

)]()([)( kyktFkW jjij

wij(k+1) = wij(k) + wij(k)

Donde es el cambio de la superficie de la relación difusa dada

como una función F[.] del error e(k):

)(kWij

En redes neuronales multicapa, el aprendizaje involucra la relación de objetivos tK, con la salida obtenida de la red neuronal, y.

Q = [y(xk) – tk]2N

K=1

Representación de Representación de Datos en Sistemas Datos en Sistemas

Híbridos Híbridos (NeuroDifusos) (NeuroDifusos)

Representación de variables

Representación Difusa de variables Representación Difusa de variables que son entradas y salidas deque son entradas y salidas de RNA.RNA.

Algunas veces la distribución de las posibles salidas de una RNA requiere de un gran número de neuronas, lo cual implica un aumento en la complejidad y el tiempo entrenamiento.

Si se considera una representación difusa o lingüística de las variables, se pueden reducir de “n” salidas a solo algunas representadas por conjuntos que agrupan los posibles valores.

Secuencia de Secuencia de EventosEventos

Eventos involucrados al utilizar datos difusos en RNA’s son:

1.- Conversión de Datos exactos o difusos en funciones de membresía o conjuntos.

2.- Dichas valores de funciones o conjuntos son sujetos a operaciones lógicas difusas.

3.- Los resultados son defusificados en valores exactos que se presentan a la RNA.

4.- Las rna’s pueden tener entradas exactas directas y no necesitar del proceso de fusificación.

5.- La salida de la RNA es un conjunto esacto que utiliza una función de membresía para convertirla en una variable difusa.

6.- Entonces dicha salida difusa es calculada en LD.

7.- Al final las salidas difusas se defusifican a fin de tener una salida exacta del sistema.

Codificación Difusa “uno-de-n” Codificación Difusa “uno-de-n” de entradas a una RNAde entradas a una RNA

Típicamente una variable de entrada se representa por un nodo de entrada en las RNA’s.

Cuando una variable tiene una relación especifica con otras variables sobre una pequeña porción de su rango, el entrenamiento se dificulta.

Esto se puede solucionar teniendo neuronas que se enfoquen a una región específica. El dominio es dividido en “n” (3, 5 ó 7) regiones y a cada una se le asigna un conjunto difuso de tipo triángular.

El valor de membresía en cada conjunto difuso determina el nivel de activación de su neurona de entradas asociada.

Esta codificación (uno de n) expande el rango de la variable a n entradas de red, donde cada una cubre una fracción del dominio.

Esta técnica es ventajosa solo cuando la importancia de la variable cambia significativamente en el dominio.

Control Difuso en el algoritmo de aprendizaje de Retropropagación

Muchos métodos para acelerar el aprendizaje en redes de retropropagación han sido probados con variados grados de éxito.

Uno de los más comunes es ajustar la tasa de aprendizaje durante el entrenamiento usando un método adaptativo que satisfaga algunos índices de desempeño.

Los sistemas difusos pueden ser vistos como una red feedforward y se han desarrollado algoritmos de retropropagación para su entrenamiento, relacionando patrones o variables de entrada y salida deseadas.

Existen métodos en los cuales un controlador difuso on-line se utiliza para adaptar el aprendizaje de parámetros de un perceptron multicapa que utiliza aprendizaje backpropagation.

Algunas aplicaciones Algunas aplicaciones en en la la IngenieríaIngeniería

Redes difusas neuronales para integrar el aprendizaje neuronal con la capacidad de representación de conocimiento de los sistemas difusos.

Las RNA’s son típicamente heterogéneas para un mejor reflejo lógico de un problema dado.

Las capas y nodos de una red neurodifusa pueden ser interpretadas como una realización de reglas difusas if/then.

Pedrycz y Rocha (1993) modelos neurodifusos usando operadores lógicos (AND,OR,NOT), así como normas T y S.

Hirota y Pedrycz (1993) Redes basadas en aprendizaje (clasificación de conocimiento), compuesto de neuronas básicas AND y OR usadas en clasificación de patrones.

Zhang y Chen (1994) utilizan un híbrido que consistía de una red de parámetros estimables, una capa convertidora, y una basada en backpropagation para la clasificación de problemas con características complejas. Ha sido aplicada a la clasificación de imágenes de satélites y determinación litográfica.

Sharpe (1994) presentó un método híbrido usando técnicas de LD para adaptar el criterio de configuración de una red convencional.

Hu y Hertz (1994) modelo híbrido donde la LD controla el proceso de aprendizaje de una RNA durante el entrenamiento ajustando la tasa de acuerdo al error de salida de una neurona y a reglas heurísticas establecidas.

Kwan y Cai (1994) estructura de cuatro capas feedforward de una red neuronal difusa y su algoritmo de aprendizaje asociado. Las 4 capas permiten resolver muchos problemas de reconocimiento de patrones.

En una aplicación biotecnológica, una red neuronal difusa de 5 capas fue desarrollada para el control de cultivo de Escherichia.