Redalyc.Técnicas de Inteligencia Artificial (parte II) · capas que simultáneamente cambian sus...

5
PROSPECTIVA ISSN: 1692-8261 [email protected] Universidad Autónoma del Caribe Colombia Aroca Acosta, Richard Rafael Técnicas de Inteligencia Artificial (parte II) PROSPECTIVA, vol. 3, núm. 2, julio-diciembre, 2005, pp. 40-43 Universidad Autónoma del Caribe Disponible en: http://www.redalyc.org/articulo.oa?id=496251106005 Cómo citar el artículo Número completo Más información del artículo Página de la revista en redalyc.org Sistema de Información Científica Red de Revistas Científicas de América Latina, el Caribe, España y Portugal Proyecto académico sin fines de lucro, desarrollado bajo la iniciativa de acceso abierto

Transcript of Redalyc.Técnicas de Inteligencia Artificial (parte II) · capas que simultáneamente cambian sus...

Page 1: Redalyc.Técnicas de Inteligencia Artificial (parte II) · capas que simultáneamente cambian sus estados, ob teniendo una velocidad de procesamiento tal, que les permite interactuar

PROSPECTIVA

ISSN: 1692-8261

[email protected]

Universidad Autónoma del Caribe

Colombia

Aroca Acosta, Richard Rafael

Técnicas de Inteligencia Artificial (parte II)

PROSPECTIVA, vol. 3, núm. 2, julio-diciembre, 2005, pp. 40-43

Universidad Autónoma del Caribe

Disponible en: http://www.redalyc.org/articulo.oa?id=496251106005

Cómo citar el artículo

Número completo

Más información del artículo

Página de la revista en redalyc.org

Sistema de Información Científica

Red de Revistas Científicas de América Latina, el Caribe, España y Portugal

Proyecto académico sin fines de lucro, desarrollado bajo la iniciativa de acceso abierto

Page 2: Redalyc.Técnicas de Inteligencia Artificial (parte II) · capas que simultáneamente cambian sus estados, ob teniendo una velocidad de procesamiento tal, que les permite interactuar

Técnicas de Inteligencia Artificial(parte 11)

Richard Rafael Aroca Acosta .

RESUMEN

Este artículo pretende mostrar los enfoques mássignificativos propuestos para el desarrollo de laInteligencia Artificial. Partiendo de la consideración dela máquina universal de Turing como uno de los modelospara explicar los procesos cognitivos del cerebrohumano, convirtiéndose esto, en una tesisepistemológica que se constituye como el paradigmadel computador, hasta al moderno enfoque conexionistadonde el cerebro humano pasa a ser el paradigma quepermite diseñar y desarrollar computadorasemocionales.

PALABRAS CLAVES

Dualismo, Máquina universal de Turing, CorrienteSimbólica, Corriente Subsimbólica, Conexionismo,Computadoras emocionales.

1. Introducción

Probablemente, el comenzar a creer seriamente en laposibilidad de la mecanización del pensamiento, en opo­sición a la concepción Dualista -creencia de la separa­ción del cuerpo material y la mente espiritual- expues­ta sistemáticamente por René Descartes en el año de1641 en su obra "Meditationes de prima philosophia, inquibus Dei existentia, & animae a eorpore distinetio,demonstratur", tiene sus orígenes en las definicionesiniciales de algoritmo como un procedimiento eficaz paracalcular funciones matemáticas. Esta definición inicialmarca una relación estrecha entre la matemática y lainformática, la cual se hace más evidente con el diseñode la máquina de Alan Turing en el año de 1936 comoun recurso dialéctico usado para demostrar la imposibi­lidad de que las matemáticas fuesen decidibles -pro­blema propuesto por el matemático alemán David Hilberten el año de 1928- definiendo algoritmo como un proce­so que puede ser realizado por una máquina "pensaralgorítmicamente es equivalente a pensar mecánica­mente" (Gutiérrez, 1994), se extiende al concepto de

40

ABSTRACTThis article tries to show the mostsignificant approaches defined by thedevelopment of the artificial intelligence:Beginning, from the consideration of theTuring universal machine as one of themodels to explain the cognitive processof the human brain, turn into anepistemological thesis that is constitutedas a computer paradigm, to the modemconnectives approach where the humanbrain is turned into a new paradigm thatlet design and develop emotionalcomputers.

KEVWORDSDualism, Turing Universal Machine,symbolical current, subsymbolical current,connectives, Emotional computers.

Máquina Universal, capaz de imitar o simular a cual­quier otra máquina utilizando un programa, y se mate­rializa con la construcción de la primera computadoradigital entre los años 1946-48 haciendo realidad laautomatización de los razonamientos lógicos a travésde la ejecución de un conjunto de instrucciones lógicaspara manejar símbolos o lenguaje de programación im­perativa, lo que comúnmente se conoce como: la infor­mática tradicional.

Es notable la relación fundamental entre la lógica y elconocimiento: El contenido de nuestro sistema de co­nocimiento -integración de creencias en redesinterconectadas que mejor garantizan nuestra supervi­vencia- es producto de nuestra experiencia pero estáorganizado de forma lógica. La lógica se presenta deesta manera como una herramienta científica analíticafundamental, para decidir qué se sigue de qué, qué con­tradice a que, que apoya a qué, etc., que asegura quela presentación del conocimiento sea eficiente e inte­gral, creando los niveles de abstracción o conceptos(Ontología). .

Page 3: Redalyc.Técnicas de Inteligencia Artificial (parte II) · capas que simultáneamente cambian sus estados, ob teniendo una velocidad de procesamiento tal, que les permite interactuar

Desde este punto de vista la lógica, mas que una disci­plina matemática, puede verse como un conjunto de tác­ticas y estrategias de razonamiento (Conjunto de reglasde acción que establecen el rigor del pensamiento paraalcanzar ciertos objetivos específicos) como son el mé­todo deductivo y la analogía.

Lo anterior marca la omnipresencia de la lógica en laInformática, cuya mayor evidencia se hace en el diseñoalgorítmico (Construcciones prácticas del razonamien­to lógico) que luego serán transformados en programaspara su ejecución en una computadora. Lo más signifi­cativo para el ser humano no es la aplicación del algorit­mo en sí, sino la capacidad de razonamiento mental queéste desarrolla para diseñarlos.

Lo anterior de alguna manera, marca la concepción tra­dicional occidental de asociar "pensar", con el hecho dehacerlo en forma lógica y racional.

2. Desarrollo

2.1. La Corriente Simbólica

El diseño de la máquina universal de Turing dio fuerza ala polémica idea de sí ¿pueden pensar las máquinas?,la cual fue analizada formalmente en el artículo "¿CantThink machine?"publicado por Turing en el año de 1950.Es de especial interés anotar que para el diseño de sumáquina, Turing toma por objeto de reflexión a un serhumano que aplica un algoritmo. Esto de alguna mane­ra permite considerar mas adelante a la máquina uni­versal como uno de los modelos para explicar los pro­cesos cognoscitivos del cerebro humano convirtiéndo­se en una tesis epistemológica que se constituye comoel paradigma del ordenador que da inició a la psicologíacognitiva y la ciencia cognitiva, aportando la "primeraformulación completa del paradigma de las contempo­ráneas ciencias del conocimiento" (Gutiérrez, 1994).

Esta Ciencia Cognitiva, ofrece una alternativa a la tradi­ción filosófica del estudio del conocimiento y sirve paraabandonar definitivamente el conductismo como teoríapsicológica dominante. La mente humana dejó de seruna caja negra, cuyo contenido era desconocido. Conla materialización de los ordenadores con una arquitec­tura Von Newman a partir de la máquina universal deTuring se puso de manifiesto que era posible interesar­se por las estructuras y procesos internos que hacíanposible el comportamiento humano inteligente (A estasideas se sumaron las teoría de la comunicación deClaude Shannon, los nuevos enfoques que dio Noam

. Chomskya la lingüística y el planteamiento psicológicode Jean Piaget)

Este nuevo enfoque se consolida en el año 1956 en lareunión celebrada en el Dartmouth College (Hanover,New Hampshire) como un modelo para construir máqui­nas que realizasen tareas equivalentes a las de la inte-

ligencia humana bajo el nombre de Inteligencia Artificial(El término Inteligencia Artificial fue sugerido por JohnMcCarthy) Comenzando un inusitado interés a nivel uni­versitario por esta nueva disciplina, estableciéndose de­partamentos de Inteligencia Artificial y realizándose re­gularmente congresos sobre sus temas principales.

La Inteligencia Artificial, por esta época, considera enprincipio que tanto los seres humanos como las máqui­nas lógicas son procesadores de información, con unaracionalidad estricta y un lenguaje simbólico reglado porleyes lógicas, tal enfoque se conocería mas tarde comoel enfoque simbólico de la Inteligencia Artificial, cuyodominio son los temas lógico-matemáticos. Esta corrien­te "Pretendían dotar a las máquinas de tal capacidadlógica que pudieran demostrar todo lo demostrable yresolver cualquier problema que tuviera solución» (DeAndrés, 2002).

A pesar del éxito inicial de la concepción simbólica, pron­to se pusieron de manifiesto una serie de limitaciones:este tipo de programación hacia que la máquina fuesecapaz de razonar ante problemas lógicos y matemáti­cos, pero eran totalmente inútiles para interactuar consituaciones cotidianas. Por ejemplo: son incapaces desostener una conversación. Los intentos de enseñar ahablar a los computadores parecía una labor sencillapues se sustentaba inicialmente con las teoríaslingüísticas de Chomsky, que consideraban el lenguajecomo un conjunto de símbolos dotado de estructuras osintaxis y las teorías formales, basadas en un conjuntode reglas ortográficas y sintácticas, del lenguaje dePiaget. Pero resulta que nuestro lenguaje más que unconjunto de sintaxis, tiene semántica y es pragmático,es más, dentro de una conversación normal hay muchainformación que se da por conocida, no se entra en de­talles -son de sentido común-, más cierta informacióngestual que facilita la comunicación.

2.1.1. Lógicas Alternativas

Un intento por mejorar la interacción y adaptación delcomputador con el mundo real fue el desarrollo de sis­temas lógicos alternativos como la lógica nomonotónica (En la cual es posible que una proposiciónpueda ser verdadera ahora y luego ser falsa, imitandola evolución del pensamiento conforme se acumulannuevos conocimientos) y la lógica difusa (En la cual esposible asignar distintos valores a una proposición).

Pero estas lógicas aunque han resuelto algunos proble­mas de la lógica tradicional, parecen estar sujetas a ladifícil tarea de su formalización y en cierto modo, todasestarían condenadas al fracaso por los teoremas de KurtG6del: "Existen afirmaciones dentro de un sistema queni se puede demostrar ni se puede refutar' y "Ningúnsistema consistente se puede Lf-sar para demostrarlo aél mismo". Lo que" permite sugerir que «Si sólo se tienerazón, se tiene muy poco» (De Andrés, 2002).

41

Page 4: Redalyc.Técnicas de Inteligencia Artificial (parte II) · capas que simultáneamente cambian sus estados, ob teniendo una velocidad de procesamiento tal, que les permite interactuar

Esto pone de manifiesto que los computadores lógi­cos no son un buen modelo de la psicología humanay más importante aún que la inteligencia humano noes exclusivamente lógica ni enteramente racional.Poniendo en entre dicho la idolatría del pensamientológico y generando entre otros interrogantes: ¿El ra­zonamiento lógico será un invento de la inteligencia,pero no la inteligencia misma?

2.1.2. Los Sistemas Expertos

Ante la imposibilidad de implementar solucionesalgorítmicas (programación imperativa) de tipo gene­ral se comienza a explorar aplicaciones más especí­ficas introduciendo una nueva forma de programa­ción declarativa, basados en reglas, orientados aobjetos, etc., donde lo importante es la adecuada ca­racterización del problema, la selección del métodode búsqueda y el mecanismo de inferencia entre otros.Con estas nuevas herramientas se desarrollan, apartir del año 1970, los llamados Sistemas Exper­tos: programas que imitan el comportamiento de unespecialista humano, simulando ante todo su pensa­miento heurístico al resolver problemas, incorporan­do a su base de conocimiento teorías (conocimientoformal) y la experiencia (conocimiento no formal),utilizando un mecanismo de inferencia para realizarsus razonamientos. Esto ha permitido hacerse unaidea más clara de cómo pensamos y aplicamos nues­tros conocimientos.

A pesar de los avances promisorios de la corrientesimbólica de la Inteligencia Artificial ha resultado hastael momento inadecuada para mecanizar lo que lla­mamos el «sentido común» humano en los computa­dores digitales. Esto en parte porque el sentido co­mún aparece como red infinita de datosinterrelacionados, la cual genera una explosióncombinatoria infinita, cuyo procesamiento requiereuna capacidad de cálculo imposible de conseguir aúndisponiendo de una inimaginable velocidad y de todoel tiempo del universo. Por ejemplo: La serie de even­tos que habría que tener en cuenta para programaruna Máquina que fuese de compras desde nuestrodomicilio hasta algún supermercado sería enorme, locual conllevaría a una explosión combinatoria infini­ta, al tratar de determinar en la máquina ¿Qué hacerante tal evento o ante cualesquiera otros eventos?,esto se conoce comúnmente como el problema delmarco (Propuesto por McCarthy y Hayes en 1969).

Pero resulta que la mente humana tratacotidianamente con mucho éxito este tipo de proble­mas sin mayores esfuerzos y en tiempo finito.

Esto hizo necesario la búsqueda de otras alternati­vas con cambios radicales.

42

2.2. La Corriente Subsimbólica

Se consolida al retomar las antiguas investigaciones,de los años 60's, sobre el funcionamiento del cerebrohumano mismo y su red neuronal natural para diseñarcomputadores que imiten su funcionamiento: El cere­bro humano pasa a ser el paradigma para diseñar ydesarrollar computadoras.

Las Redes Neuronales Artificiales modelan las co­nexiones sinápticas neuronales, mediante las reglaspropuestas por Donald Hebb, sobre la base de estímu­los externos que genera el aprendizaje. Los datos no sealmacenan de forma especifica, el conocimiento es pro­ducto de las mismas conexiones de la red (sinápsis),del cálculo paralelo de muchas neuronas asociadas porcapas que simultáneamente cambian sus estados, ob­teniendo una velocidad de procesamiento tal, que lespermite interactuar con entornos reales en el que la in­formación es amplia, variada e impredecible. Un cam­bio radical es que: las redes neuronales no se progra­man, se entrenan (aprenden mediante casos y procedi­mientos de ensayo-error), esto se conoce como el en­foque Subsimbólicoo conexionista de la InteligenciaArtificial, que plantea nuevas vías de comprensión so­bre los procesos mentales humanos proponiendo un mo­delo que "se asemejan más a nosotros que las máqui­nas lógicas" (De Andrés, 2002).

Si las investigaciones sobre nuestro cerebro están en locierto, resulta claro que nuestro sistema de tratamientode la información neuronal es intuitivo, asociativo yholístico, muy ajeno a un funcionamiento lógico-formaly simbólico, pero que de alguna manera ha conseguidomanifestarse como pensamiento lógico y racional.«Marvin Minsky, entre otros autores, ha insistido mu­cho en que el cerebro humano no es una máquina lógi­ca y en que basa su poder no en el rigor y la congruen­cia sino más bien en la redundancia y en la multiplicidadde instrumentos para razonar» (De Andrés, 2002)

3. Conclusión

La Inteligencia Artificial se propone la mecanización delpensamiento, mediante dos enfoques básicos: el enfo­que simbólico, que propone al computador digital comoun modelo para explicar los procesos cognoscitivos delcerebro humano mediante algunos programas genera­les que procesan información, con una racionalidad es­tricta, un lenguaje simbólico reglado por leyes lógicas yotros programas que imitan el comportamiento de ex­pertos humanos mediante lenguajes declarativos conmecanismos de inferencias y búsquedas heurísticas enbases de conocimiento formales y no formales y el en­foque Subsimbólico, que propone al cerebro humanocomo modelo para el desarrollo de computadores emo­cionales que sean capaces de tener sentido común.

Page 5: Redalyc.Técnicas de Inteligencia Artificial (parte II) · capas que simultáneamente cambian sus estados, ob teniendo una velocidad de procesamiento tal, que les permite interactuar

Enfoque SimbólicoComputadorAlgoritmos

(Sistemas Expertos)

4. Referencias Bibliograficas.

Mecanización delPensamiento

(Máquinas Inteligentes)

Enfoque SubSimbólicoCerebro

(Redes NeuronalesArtificiales)

[1] De Andrés, Tirso. Homo CyberSapiens, La Inteligencia Artificial y la Humana. 1ª Ed, Editorial EUNSA. 2002.[2] Nilsson, Nils. Inteligencia Artificial, una nueva síntesis. 1ª Ed, Editorial Mc Graw Hill. 2001.[3] Valsechi, Maria Cristina., «La mente artificial», Newton, 27: 14-23, julio, 2000.[4] Rich, Elaine. Knight, Kevin. Inteligencia Artificial. 2ª Ed, Editorial Mc Graw Hill. 1994.[5] Gutiérrez, Claudio. Epistemología e Informática. Proyecto BID/FOD 1991-1994.

EL AUTOR

. Ingeniero de Sistemas, Especialista en Auditoria de Sistemas, Universidad Antonio Nariño. Especialista enEstudios Pedagógicos, Corporación Universitaria de la Costa. Técnico Electrónico Digital-Industrial, Profe­sor Catedrático de la Facultad de Ingeniería de la Universidad Autónoma del Caribe. Especialista en Infor­mática y telemática de la Universidad Andina, aspirante a Doctor en Ciencias Pedagógicas de la Universidadde Holguín, Cuba

43