Capítulo 13. Extracción inmiscible, lavado, lixiviación y extracción supercrítica
Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de...
-
Upload
marita-morante -
Category
Documents
-
view
220 -
download
0
Transcript of Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de...
![Page 1: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/1.jpg)
Selección y Extracción de Selección y Extracción de CaracterísticasCaracterísticas
««Reducción de la Dimensionalidad»Reducción de la Dimensionalidad»
Reconocimiento de Reconocimiento de PatronesPatrones
![Page 2: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/2.jpg)
2
Índice:
• Selección de características.
• Estrategias de búsqueda.
• Función criterio:– Wrapper: Error de clasificación.
– Filter: Separación entre clases, medidas de dependencia y medidas de información.
• Ponderación de características.
• Extracción de características.
![Page 3: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/3.jpg)
3
Diferentes Perspectivas
• Selección: obtener un subconjunto del conjunto inicial de atributos.
• Ponderación: aplicar un peso a cada una de las características iniciales.
• Extracción: obtener un conjunto a partir de la transformación o combinación de los atributos originales.
![Page 4: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/4.jpg)
4
Problema de la Selección
• Buscar un subconjunto reducido de d características a partir de los D atributos iniciales que componen el vector de características de las muestras.– Reducción de la dimensionalidad del espacio de
características.
![Page 5: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/5.jpg)
5
Objetivos• Reducir el costo computacional asociado a una
regla de clasificación.– Eliminando atributos irrelevantes.
– Eliminando atributos redundantes.
• Aumentar la precisión (tasa de aciertos) de una regla de clasificación.– Eliminando atributos “dañinos”.
– Reduciendo el número de atributos cuando se dispone de pocas muestras de entrenamiento:
• Razon entre número de muestras y número de características.
![Page 6: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/6.jpg)
6
Posibles Aplicaciones
• Fusión de la información de múltiples sensores (Information Fusion).
• Minería de datos (Data Mining).• Análisis de imágenes de percepción remota (Remote
Sensing).• Otras con grandes volúmenes de datos.
![Page 7: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/7.jpg)
7
Formulación Matemática
• Problema de optimización combinatoria: – Dado un conjunto Y de D características, escójase un
subconjunto X Y de talla d que optimice una cierta función criterio J(X).
)( max )(||
ZJXJ
dZYZ
![Page 8: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/8.jpg)
8
Solución Trivial
• Realizar una búsqueda exhaustiva del mejor subconjunto de d D características.– Examinar todos los posibles subconjuntos de d características:
• Si en cambio buscamos todos los posibles subconjuntos de características entonces el problema tiene 2D – 1 combinaciones.
lmenteexponencia crece nescombinacio
d
D
![Page 9: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/9.jpg)
9
Solución Alternativa
• Algoritmos de selección de características:– Se basan en el uso de una estrategia de búsqueda y una función
criterio que permita evaluar la calidad de cada subconjunto seleccionado.
– En general, la función criterio trata de medir la capacidad discriminatoria de un atributo o de un subconjunto de características.
![Page 10: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/10.jpg)
10
Esquema
Estrategia de Búsqueda
Función Criterio
Su
bco
nju
nto
de
Car
acte
ríst
icas
Juicio
Conjunto deCaracterísticas Mejor Subconjunto
Selección de Características
![Page 11: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/11.jpg)
11
Proceso de selección de características con validación
Selección Evaluación Validación
criterio parada
no
Subconjunto
características
Conjunto original
características
si
Bondad del subconjunto
![Page 12: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/12.jpg)
12
Factores de Influencia
• En general, el algoritmo de búsqueda utilizado no resulta tan determinante como la función criterio: distintos algoritmos obtienen la misma solución.
• Lo realmente fundamental en el resultado es la función criterio empleada.
![Page 13: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/13.jpg)
13
Clasificación por Estrategia usando el propio clasificador
• Solución óptima– Algoritmos de Ramificación y Poda.
• Solución subóptima– Algoritmos Secuenciales.
– Algoritmos Genéticos.
![Page 14: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/14.jpg)
14
Algoritmos Secuenciales
• Búsqueda Secuencial Hacia Delante (Forward Sequential Search, FSS).
• Búsqueda Secuencial Hacia Atrás (Backward Sequential Search, BSS).
• Búsqueda Secuencial Flotante (Sequential Floating Search, SFS).
![Page 15: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/15.jpg)
15
Algoritmo FSS
• Parte de un conjunto de características vacio.• En cada iteración, añade al conjunto la “mejor”
característica.
![Page 16: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/16.jpg)
16
Algoritmo BSS
• Parte de un conjunto formado por todas las características disponibles.
• En cada iteración, elimina del conjunto la “peor” característica.
![Page 17: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/17.jpg)
17
Ejemplo FSS (Datos)
• Conjunto inicial: Y = {y1, y2, y3, y4 , y5}.
• Objetivo: seleccionar un conjunto X con las 2 mejores características (|X| = 2).
![Page 18: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/18.jpg)
18
Ejemplo FSS (Ejecución)
• X = • Seleccionar el mejor subconjunto:
X = {y1}, X = {y2}, X = {y3}, X = {y4}, X = {y5}
• Seleccionar el mejor subconjunto: X = {y2, y1}, X = {y2, y3},X = {y2, y4}, X = {y2, y5}.
![Page 19: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/19.jpg)
19
Ejemplo BSS (Datos)
• Conjunto inicial: Y = {y1, y2, y3, y4 , y5}.
• Objetivo: seleccionar un conjunto X con las 2 mejores características (|X| = 2).
![Page 20: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/20.jpg)
20
Ejemplo BSS (Ejecución)
• X = Y = {y1, y2, y3, y4}.
• Seleccionar la mejor combinación:X = {y1, y2, y3}, X = {y1, y2, y4},X = {y1, y3, y4}, X = {y2, y3, y4}.
• Seleccionar el mejor subconjunto:X = {y1, y3}, X = {y1, y4}.
![Page 21: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/21.jpg)
21
Inconvenientes de FSS y BSS
• No pueden “corregir” adiciones o eliminaciones anteriores.
• Pueden dar lugar a conjuntos no óptimos: por ejemplo, en el BSS, el mejor X de 3 características era X = {y1, y3, y4} y, sin embargo, el mejor X de 2 elementos podría haber sido X = {y1, y2}.
![Page 22: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/22.jpg)
22
Algoritmo SFS
• Dos variantes: “forward” y “backward”.• Una mejora sobre FSS (o BSS): mediante la
inclusión (o eliminación) condicional de características.
![Page 23: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/23.jpg)
23
Algoritmo SFS
• Después de cada iteración hacia delante (o hacia atrás), se vuelve hacia atrás (o hacia delante) para comprobar si existe alguna combinación mejor.
• En la práctica, se aplica directamente el FSS (o BSS) en las 2 primeras iteraciones.
![Page 24: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/24.jpg)
24
Ejemplo SFS (Datos)
• Conjunto inicial: Y = {y1, y2, y3, y4 , y5}.
• Objetivo: seleccionar un conjunto X con las 3 mejores características (|X| = 3).
![Page 25: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/25.jpg)
25
Ejemplo SFS (Ejecución 1)
• Suponemos que el FSS ya ha seleccionado el mejor subconjunto de 2 elementos: X = {y2, y3}.
• El SFS selecciona ahora el mejor conjunto con 3 características; supongamos que éste es X = {y2, y3, y4}.
![Page 26: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/26.jpg)
26
Ejemplo SFS (Ejecución 2)
• La vuelta atrás consiste en ver si existe algún subconjunto de 2 características mejor que el seleccionado anteriormente (X = {y2, y3}): en este caso, sólo podría ser el conjunto X = {y3, y4}.
• Si se cumple, se cambia y se vuelve hacia delante con el nuevo subconjunto.
![Page 27: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/27.jpg)
27
Clasificación por Función
• Filtros: la función criterio utilizada es independiente del clasificador a emplear en la fase de clasificación.
• Wrappers: la función criterio utilizada es la propia regla que posteriormente se empleará para la clasificación de nuevas muestras.
![Page 28: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/28.jpg)
28
Métodos filter y wrapper
Variables de entrada Algoritmo de selección aprendizaje
Método filter
Método wrapper
Variables de entrada evaluación subconjunto aprendizaje
Algoritmo de selección
aprendizaje
![Page 29: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/29.jpg)
29
Funciones Criterio
• Medidas de distancia o separabilidad: p.e., distancia euclidea, “city-block”.
• Medidas de información: p.e., entropía.• Medidas de dependencia: p.e., coeficiente de
correlación.• Medidas de la tasa de error: clasificador.
![Page 30: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/30.jpg)
30
Medidas de Distancia
• Para un problema de 2 clases, un atributo X es preferible a otro Y si X induce una mayor diferencia entre las probabilidades condicionales de las dos clases.
• Por ejemplo, se puede utilizar la distancia entre los centroides de las dos clases.
![Page 31: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/31.jpg)
31
Medidas de Información
• Miden la “ganancia de información” debida a cada atributo.
• Esta ganancia de información se puede definir a partir de la entropía.
![Page 32: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/32.jpg)
32
Entropía
• donde pi es la proporción de muestras de la clase i en el conjunto S.
• Mide el “grado de impureza” de un cierto conjunto de muestras:
– Será máxima cuando todas las clases están representadas en la misma proporción.
c
iii
ppSEntropía1
2)(log
||
||
SSp i
i
![Page 33: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/33.jpg)
33
Ganancia de Información
• Entonces, la ganancia de información de un atributo A será:
n
ii
i SSSs Entropia
SEntropíaASGanancia
1
)(||
||
)(),(
![Page 34: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/34.jpg)
34
Medidas de Dependencia
• Cuantifican la capacidad para predecir el valor de una variable a partir del valor de otra variable: coeficiente de correlación.
• Coeficiente de correlación (entre 0 y 1): mide el grado de relación lineal entre dos variables. Un valor igual a 0 indica que no existe relación entre ellas.
![Page 35: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/35.jpg)
35
Medidas de Dependencia
• Para detectar atributos redundantes, se puede determinar el coeficiente de correlación de un atributo X con otro Y.
sssssr
YYXX
XY
22
n
iXX xxss i
1
2
)( )()(1
yx yxss i
n
iiXY
n
iYY yyss i
1
2
)(
![Page 36: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/36.jpg)
36
Medidas de Tasa de Error
• Básicamente, se corresponden con los métodos “wrapper”.
• Como función criterio se utiliza el mismo clasificador que posteriormente vaya a emplearse para la clasificación de nuevas muestras.
![Page 37: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/37.jpg)
37
Función Criterio - Problema
Medidasde distancia
Medidas deinformación
Medidas dedependencia
Medidas detasa de error
Atributosirrelevantes
Atributosredundantes
Atributos“dañinos”
![Page 38: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/38.jpg)
38
Situación Actual
• En general, las propuestas actuales están dirigidas a resolver un único problema: atributos irrelevantes, atributos redundantes, atributos “dañinos”.
• El problema a resolver viene determinado, básicamente, por la función criterio utilizada.
![Page 39: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/39.jpg)
39
Ponderación de Características
• Ponderar, en vez de seleccionar, cada uno de los atributos: asignar un peso a cada atributo en función de su importancia.
• Esta opción se centra en aumentar la tasa de aciertos de la regla de decisión, no en reducir el costo computacional.
![Page 40: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/40.jpg)
40
Problema de la Ponderación
• Transformar el conjunto Y de los D atributos iniciales en un nuevo conjunto X de D características con distintos pesos:
X = {w1y1, w2y2, …, wDyD}
![Page 41: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/41.jpg)
41
Esquema
Evaluación
Aprendizaje de Pesos
Conjunto deCaracterísticas
Conjunto Ponderado
Ponderación de Características
Ajuste de Pesos
![Page 42: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/42.jpg)
42
Base del Problema
• Idea: los atributos irrelevantes tendrán muy poca influencia sobre el resultado global de la clasificación.
• Solución: ponderar la importancia de los atributos en función de su contribución al problema.
![Page 43: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/43.jpg)
43
Fundamentos
• Las estrategias de ponderación tratan de:– Premiar a los atributos responsables de clasificaciones
correctas.
– Penalizar a los atributos culpables de clasificaciones erróneas.
![Page 44: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/44.jpg)
44
Estrategias de Ponderación
• Ajustar los pesos en función del resultado de las predicciones.
• Ajustar los pesos en función de la clase de los vecinos más próximos.
• Ajustar los pesos en función de la probabilidad condicional de cada clase.
![Page 45: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/45.jpg)
45
Ponderación — Selección
• La selección de características puede verse como un caso particular de la ponderación de características.– El peso asignado a cada atributo sólo puede tomar los
valores 0 (mínima relevancia) y 1 (máxima relevancia).
![Page 46: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/46.jpg)
46
Comparativa entre selección y ponderación
![Page 47: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/47.jpg)
47
Extracción de características
• Transformar el espacio de entrenamiento E en otro espacio E* donde los datos estén menos correlacionados.
• Encontrar un nuevo conjunto de ejes ortogonales en el que la varianza de los datos se máxima.
• En ese nuevo espacio los ejes principales serán los que más información aporten y los ejes secundarios no aportarán casi información por lo que se pueden eliminar y reducir la dimensionalidad.
• En la matriz de covarianza de los datos la dirección de máxima varianza es la del eje principal de la elipse.
![Page 48: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/48.jpg)
48
• Análisis de componentes principales:
– Se determina la matriz de covarianza de los datos.
– A continuación se diagonaliza la matriz calculando sus autovalores y sus autovectores.
– El resultado es una rotación rígida donde el autovector asociado al mayor autovalor está en la dirección de máxima varianza.
• Solución:
– Se ordenan los autovalores.
– Se suma la traza de la matriz T que contendrá la suma de los autovalores y se normaliza cada autovalor por la suma:
– De esta forma conocemos el grado de influencia de cada autovalor en la varianza total.
– Iremos acumulando de mayor a menor analizando cuanto porcentaje del total estamos acumulando hasta un umbral. Ej. 90 %.
d
ii
ii
1
100(%)
![Page 49: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/49.jpg)
49
• Mediante los autovectores X podemos calcular las coordenadas de los puntos del conjunto de entrenamiento x en el espacio transformado x’:
• Si sólo utilizamos los autovalores asociados a los autovalores más altos tendremos conjunto de entrenamiento en un espacio transformado más reducido.
dddd
d
d
ddddd
d
X
x
x
aa
aa
x
x
x
x
x
x
aa
aa
1
1
111
'
'1
'
'11
1
111'xx
![Page 50: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/50.jpg)
50
![Page 51: Selección y Extracción de Características « Reducción de la Dimensionalidad» Reconocimiento de Patrones.](https://reader034.fdocumento.com/reader034/viewer/2022051401/5665b4581a28abb57c90b692/html5/thumbnails/51.jpg)
51
Conclusiones
• Selección: determinar la función criterio y el algoritmo de búsqueda.
• Ponderación: determinar la estrategia de ajuste de los pesos.
• Extracción: Pasar a un espacio transformado quedándonos con los ejes que más decorrelacionan los datos.