Jack Copeland - Inteligencia Artificial (1996)

417
Jack Copeland Inteligencia artificial Una introducción filosófica Versión española de Julio César Armero San José Alianza Editorial

Transcript of Jack Copeland - Inteligencia Artificial (1996)

Page 1: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 1/416

Jack Copeland

Inteligencia artificial

Una introducción filosófica

Versión española de 

Julio César Armero San José

AlianzaEditorial

Page 2: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 2/416

Título original: Artificial Inteligence. A Philosophical Introduction

Reservados todos los derechos. De conformidad con lo dispuesto en el

art. 534-bis del Có digo Penal vigente, po drán ser castigados con penas de mul

ta  y  privación de libertad quienes reprod ujeren o plagiaren, en todo o en parte,

una obra literaria, artística o científica fijada en cualquier tipo de soporte sin la

 preceptiva auto rización.

© B. J. Copeland, 1993

© Ed. cast.: Alianza Editorial, S. A., Madrid , 1996

Calle Juan Ignacio Lúea de Tena, 15; 28027 Madrid; teléf. 393 88 88

ISBN: 84-206-2844-1

Depósito legal: M, 7.853-1996

Fotocomposición: EFCA

Parque Industrial «Las Monjas», c/ Verano, 38

Torrejón de Ardoz. 28850 Madrid

Impreso en Closas-Orcoyen, S. L. Polígono Igarsa

Paracuellos de Ja r ama (Madrid)

Printer! ín Sníiin

Page 3: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 3/416

 Para Jean y Reg 

Page 4: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 4/416

Page 5: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 5/416

INDICE

L is t a  d e  f ig u r a s ................................................................................... 13

A g r a d e c im ie n t o s .............................................................................. 15

In t r o d u c c ió n ..................................................................................... 17

En resumen....... ........................................................................... 18

Capítulo l . Los c o m i e n z o s  d e  l a  in t e l ig e n c ia

ARTIFICIAL: ESBOZO HISTÓRICO...............................

  20

1.1. La aparición del computador...............................   20

1.2. El Lógico Teórico.................................   26

1.3. La Conferencia de Dartmouth..............................................   28

1.4. Alan Turing y la filosofía de la IA......................................... 29

Capítulo 2. A l g u n a s  PRUEBAS SOR PREN DEN TES.....................

  34

2.1. Dentro de la máquina.............................................................. 34

2.2. Parry, el programa paranoico................................................   35

2.3. Eliza, la psicoterapeuta...........................................................   37

9

Page 6: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 6/416

10

2.4. Shrdlu , el r o b o t ................................................................................. 32.5 . H acker , e l p rogram a prog ram ado r  ....... ..................................... 4

2.6. Programas que jue g an ...................................................................   4

2.7. El R esolu tor G eneral de Prob lem as ..........................................   52.8. S a m y F r u m p ..................................................................................... 52.9. Sistemas e x p e rto s ............................................................................. 5

C ap ítu lo 3. ¿PUEDE PENSAR UNA MÁQUINA?..............................   í

3.1 . ¿Es p o r fuerz a consciente el pe ns am ien to?............................

 ( 

3.2. L a p ru eb a de T u r in g ....................................................................... (

3.3 . ¿Se ha supe rado ya la p ru e b a ? ................... .................................   7 

3.4. C u a tr o ob jeciones a la p ru eb a de T u rin g ................................. 7 

3.5. V aloración de la pr u eb a .......................................................... ......   í3.6. T iem po de d e c id ir ............................................................................ í 

C ap ítu lo 4. LA HIPÓTESIS DEL SISTEMA DE SÍMBOLOS...............   ‘

4.1. M an ip ula ció n de sí m b o lo s...........................................................   ‘4.2. S ím bolo s b in a r io s ............................................................................ 1(4.3. Los program as com o s ímb olos ...................................................   1(4.4. U n p ro g ra m a de princip io a f in .................................................. 14.5. D ef in ición de un co m pu tado r  ....................................................   L

4.6. La h ip ó te s is ....................................................................................... Y 4 .7 .   R ealizabilidad m últiple....................   Y 

C apítu lo 5. LOS HECHOS...................................................................... Y.

5.1. Los da tos en favo r de la hip óte sis ..............................................   Y.

5.2. Los d a to s en p e rsp ec tiv a ............................................................... 1.

5 .3 . Inf lar  .

................................................................................................... Y 

5.4. P ro g ram ar el se n tido co m ú n ........................................................ 1:5.5. D ato s y «saber cóm o »................................................................... 1.5.6. E l p ro y ec to C Y C ............................................................................. 15.7. La b a rre ra de la com ple jidad ........................................................ 1

índii

Page 7: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 7/416

Indice 11

Capítulo 6. EL CURIOSO CASO DE LA HABITACIÓN CHINA .....  188

6.1. El argum ento de la habitación ch ina .......................................   190

6.2. ¿Q ué erro r contiene el argum ento?.

........................................ 1936.3. D ecidir qué es en tend er ..............................................................   2016.4. Las m áquinas de Turing y la objeción biológica a la I A .... 204

Capítulo 7. L i b e r t a d ...................................................................................... 215

7.1. T urb o Sam hace una ele cc ión...................................................

  2167.2. ¿Es un a ilusión la libertad de la v o lu n ta d ?............................

  2177.3. D os clases de lib erta d ....................................................................   2227.4. Cleptom anía y otras com puls io nes............................................ 2297.5. L ib ertarism o.................................................................................. 2317.6. Predictivism o y caos ......................................................................   2367.7. Lo in evitable .................................................................................. 240

Capítulo 8. C o n c i e n c i a  ....................................................................   247

8.1. Nagel y el des or den ..........................................................   248.2. La base b o rro sa ............................................................................. 2498.3. La conciencia como un tipo de supervisión in te rn a ...........   2518.4. La inefable sensa ción ...................................   2588.5. En el coraz ón del m iste rio ............ .....................................   2608.6. ¿A qué se parece ser un m urcié lago?....................................... 2638.7. Lo que M aría no sabe.................................................................. 2678.8. Se un en los cab o s .........................................................................   270

Capítulo 9. ¿So m o s  c o m p u t a d o r e s ? ....................... *................   272

9.1. La hipótesis fuerte del sistema de sím bo los...........................

  2739.2. El so po rte informático fren te al so por te bio lógico .............. 2769.3. Adiós, V on N eu m an n ................................................................   2919.4. D ar significado a la car ne ...........................................................   2959.5. Cree r lo que no se cre e ...............................................................   2989.6. Produ ctividad y sistematicidad ..................   300

Page 8: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 8/416

9.7. Valoración de los arg um en tos ...............................................   3029*8* El sign if ic ado de « com p u ta d o r» ..................................................... 308

Capítulo 10. U n  NUEVO PUNTO DE PARTIDA PARA LA IA: EL

PROCESAMIENTO DISTRIBUIDO EN PARALELO.....  313

10.1. Las ideas básicas ........................................................................   31410.2. Lecciones de in glé s................................................................... 32310.3. ¿D espertar de una pesadilla? ..................................................   32510.4. La diferencia con los com putadores.................................   329

10.5. Com paraciones con la bio logía.............................................

  33210.6. El gimnasio chino de Searle.................................................... 33810.7. La tesis C hu rch -T ur ing ................   34410.8. ¿Son nuestros procesos cognitivos calculables algorítm i

camente? ..................................................................   34810.9. Simulación de redes po r co m pu tad or ..................................   36110.10. La batalla del ce re b ro ..............................................................   36610.11. Observaciones finales ..............................................................   369

E p í l o g o ...................................................................................................... 371

B i b l i o g r a f í a ...........................   373

ÍNDICE ALFABÉTICO...........   393

12 índice

Page 9: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 9/416

LÍSTA DE FIGURAS

Figura 2.1 .......................................................................................... 41

Figura 2.2.......................................................................................... 46

Figura 2.3......... 52

Figura 3.1....   65

Figura 3.2.......................................................................................... 71

Figura 4.1 ................................................................................... 99Figura 4.2.......................................................................................... 105

Figura 4.3 .......................................................................................... 107

Figura 4.4.......................................................................................... 107

Figura 4.5.......................................................................................... 112

Figura 5.1..................  134

Figura 6.1................. 212Figura 6.2......................................................................... 213

Figura 6.3.......................................................................................... 211Figura 6.4.......................................................................................... 212

Figura 8.1..................................................................................... 254

Figura 8.2..............  256

Figura 9.1.........   277

Figura 10.1.......................................................................................   315

13

Page 10: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 10/416

Figura 10.2 ..........................   318

Figura 10.3.................................................................................... ............. 320

Fig ura 10.4 .................................................................................................. 326

Fig ura 10.5 ............................. 327Fig ura 10.6 .................................................................................................. 331

14 índice

Page 11: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 11/416

AGRADECIMIENTOS

Muchas personas me han ayudado, mucho o poco, de muy diferentes maneras. Gracias a todas ellas: David Anderson, John An-dreae, Derek Browne, Peter Carruthers, Stephan Chambers, JohnCottingham, Hubert Dreyfus, Flip Ketch, Carmel Kokshoorn, JustinLeiber, David Lewis, Michael Lipton, Bill Lycan, Michael Maclean,Pamela McCorduck, James McGahey, Jack Messenger, Alison Mud-ditt, Gill Rhodes, Michael Smallman, Steve Smith, Kerry Stewart,Bob Stoothoff, Stephen Viles. Tengo una gratitud especial haciaJenny Arkell por comentar extensamente versiones previas y por proponer numerosas mejoras; hacia Ann Witbrock p or las ilustraciones generadas por ordenador; y sobre todo hacia Diane Proudfoot

 por su apoyo, crítica, ayuda y aliento.La figura 2.1 se basa en la figura 3 de Terry Winograd, Unders-

tanding Natural Language, con el amable permiso de AcademicPress y de Terry Winograd. La figura 3.1 está copiada de la figura 15de Douglas Hofstadter, Gódel ,  Eschery Bach: An Eternal Golden 

 Braid , con el amable permiso de Basic Books Inc. (copyright © 1979de Basic Books Inc.). La figura 5.1 está copiada de las figuras 2.1 y 2.2de P. H. Winston (comp.), The Psychology of Computer Vision, con

15

Page 12: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 12/416

16 Inteligencia artificial. Una introducción filosófica

amable permiso de McGraw Hill Inc. La figura 8.2 está copiada de la

figura 42 de M. S. Gazzaniga y J. L. LeDoux, The Integrated Mind ,

con el amable permiso de Plenum y Michael Gazzaniga. La figura

10.4 es una reproducción de partes del catálogo Letraset y aparece por amable permiso de Esselte Letraset Ltd.

Page 13: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 13/416

INTRODUCCIÓN

La inteligencia artificial es la ciencia de hacer que las máquinas hagancosas q ue requ erirían inteligencia si las hicieran los h om bres.

M arvin M insky, funda dor del Lab oratoriode Inteligencia Artificial del M IT !

 N o hace mucho tiempo vi en la televisión una entrevista con Ed-ward Fredkin, especialista en ingeniería electrónica y gerente del La- boratorio de Inteligencia Artificial del MIT. Fredkin es un hombreserio de modales graves y severos. Lo que dijo fue sorprendente12.

Hay tres grandes acontecimientos en la historia. Uno, la creación del uni-verso. O tro , la aparición de la vida. El tercero, qu e creo de igual impo rtancia,es la aparición de la inteligencia artificial. Ésta es una forma de vida muy di-ferente, y tiene posibilidades de crecimiento intelectual difíciles de imaginar.Estas máquinas evolucionarán: algunos computadores inteligentes diseñaránotros, y sé harán más y más listos. La cuestión es dónde quedamos nosotros.Es bastante complicado imaginar una máquina millones de veces más lista

que la persona más lista y que, sin embargo, siga siendo nuestra esclava yhaga lo que queramos. Puede que condesciendan a hablarnos, puede que jue-guen a cosas que nos gusten, pu ede que n os tengan de m asco tas3.

1 Minsky, M., Semantic Information Processing , p. V.2 Better M ind the Computer , BBC TV. He retocado ligeramente la charla para

darle algo más de fluidez.3 Douglas Lenat y Edward Feigenbaum, investigadores distinguidos de la IA, pre -

vén un futuro en que queda un poco de dignidad humana. En 1991 declararon lo si-

17

Page 14: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 14/416

18 Inteligencia artificial Una introducción filosófica

¿Ha desaprovechado el profesor Fredkin una vocación de escritorde ciencia-ficción?, ¿o es ésta una visión realista del futuro, una predicción serena de un hombre mejor situado que la mayoría para en

tender las implicaciones del curso actual de la investigación en IA?¿Es verdaderamente  una posibilidad tecnológica que haya computadores que piensen? Es más, ¿tiene siquiera sentido hablar de unamáquina pensante, o es un absurdo conceptual como un electrónsonriente o un soltero casado?

Para quien tenga curiosidad filosófica, las palabras de Fredkin des piertan un tumulto de preguntas intrigantes. ¿Es el pensamiento un fenómeno biológico y, por lo tanto, tan lejos del alcance de una máquina

de silicio y metal como la fotosíntesis, la lactancia, o cualquier otro proceso dependiente de la biología? ¿O se parece más el pensamiento avolar, algo que pueden hacer los seres vivos y los artefactos metálicos?¿Puede un computador mostrar más inteligencia que los humanos quelo programan? ¿Podría un computador actuar por voluntad propia?¿Sería posible un computador consciente? Y la pregunta más intrigantede todas: ¿es concebible que las investigaciones de la psicología y laneurofisiología demuestren que somos computadores blandos y suaves? Éstos son algunos de los asuntos de que se ocupa este libro. Es pero que disfruten ustedes explorándolos conmigo.

En resumen

El capítulo 1 describe los orígenes y los primeros años de la inteli

gencia artificial. El capítulo 2 examina algunos programas de IA desta-cables. El capítulo 3 hace la pregunta crucial: ¿Es posible que uiia má

guiente: «No podemos arrinconar la IA, igual que el hombre primitivo no habría podido suprimir la expansión del lenguaje... Puede que nuestros descendientes lejanoscontemplen la sinergia hombre-máquina que surge de la IA como la frontera naturalque separa a “los auténticos seres humanos” de los “animales”. A finales de los añosochenta estamos situados en la grieta que hay entre la primera época de los sistemasinteligentes... y la segunda época. En esa segunda época... se reconceptualizará el“sistema” como una especie de relación “colegiada” entre agentes inteligentes compu-tacionales y personas inteligentes. De estos sistemas hombre-máquina surgirá una inteligencia y una competencia superiores a las de la mente humana a secas. Más allá de eseumbral hay maravillas que nosotros (simples mentes humanas) literalmente no podemos imaginar». (Lenat, D. B. y Feigenbaum, E. A. «On the Thresholds of Knowledge», pp. 224-5). Entre los «nueve fines últimos» de la IA incluyen la «inteligenciasobrehumana» (op. cit., p. 226).

Page 15: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 15/416

Introducción   19

quina piense? Yo defiendo que la respuesta es  su  Esto, sin embargo,no es decir que los computadores son capaces de pensar: aún hay que

 preguntarse si los computadores son máquinas adecuadas para pensar.

El capítulo 4 explica el funcionamiento de los computadores. Em- piezo por lo más básico, de modo que quienes no sepan nada de compu-tación no tienen que preocuparse por lo que dejen atrás. El capítulo 5examina los indicios de que esta clase de máquinas posea el potencial

 para pensar. En el momento presente, sugiero, estos indicios son am- biguos. El capítulo 6 examina críticamente los argumentos del profe-sor John Searle a favor de su influyente postura según la cual los compu-

tadores, por su propia naturaleza, carecen de una comprensiónauténtica de sus entradas y salidas. Según Searle los sistemas de IAnunca podrán reproducir la inteligencia: lo más que podrán alcanzarserá una simulación. El capítulo 7 contempla el tema de la libre volun-tad, Si el futuro nos trae robots pensantes, ¿serán estos artefactos ca-

 paces de hacer elecciones libres? Es un prejuicio común que una má-quina con libre voluntad es una contradicción en los términos. Yoargumento que esto no es así. El capítulo 8 indaga la naturaleza de la

conciencia. ¿Qué es la conciencia y cómo se origina? ¿Puede tenerlauna máquina? El capítulo 9 examina la teoría de que el cerebro hu-mano mismo es literalmente un computador, una teoría que en la ac-tualidad tiene una influencia considerable en la psicología. El capítulo 10describe una aproximación nueva a la IA conocida como procesa-miento distribuido en paralelo (PDP). Quienes defienden este enfo-que se han distanciado del proyecto de programar computadores para

 pensar y se ocupan de construir máquinas de un tipo diferente, que,

más o menos, toman como modelo el tejido neuronal humano. Porúltimo, en el epílogo, vuelvo a un tema de los capítulos anteriores.Uno de los resultados de las investigaciones del libro sobre maquina-ria y pensamiento es hacer, no sólo más plausible, sino también menosincómoda la posibilidad de que seamos máquinas de cierto tipo.

Este libro es un texto para clases de filosofía de la mente y deciencia cognitiva. Sin embargo está escrito en un lenguaje llano y no

se presupone familiaridad con conceptos técnicos de la filosofía ni dela computación. El libro está pensado para que lo entienda cualquieraque tenga curiosidad por aprender sobre la inteligencia artificial y sufilosofía, desde alumnado univérsitario hasta gentes aficionadas a loscomputadores o humanistas con interés en lo que el estudio de loscomputadores pueda decirnos sobre nuestra propia naturaleza.

Reciban mi bienvenida al libro.

Page 16: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 16/416

Capítulo 1

LOS COMIENZOS DE LA INTELIGENCIA ARTIFICIAL: ESBOZO HISTÓRICO

Para comenzar en el comienzo mismo...

1.1. La aparición del computador 

La historia de la invención del computador digital es fascinante.

Existe la opinión popular de que el computador se originó en los Es

tados Unidos, pero no es cierto. Gran Bretaña, Estados Unidos y

Alemania desarrollaron el computador independientemente y casi al

mismo tiempo. En términos de quién llegó primero, es Alemania

quien se lleva el título o, más precisamente, un alemán, Konrad Zuse.

Tuvo construido y en funcionamiento a finales de 1941 el primer

computador programable de propósito general L Fue un caso de «a la

tercera va la vencida»: dos máquinas anteriores que construyó en el

inadecuado escenario del salón de casa de sus padres no funcionaron

del todo. Aunque Zuse fue el primero en llegar a la meta, pocos conocieron su logro en aquel momento, y las restricciones impuestas1

1 Para más detalles, Zuse, K., «Some Remarks on the History of Computing in

Germany», y Bauer, F. L., «Between Zuse and Ruitshauser-The Early Development of

Digital Computing in Central Europe».

20

Page 17: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 17/416

Los comienzos de la inteligencia artificial: Esbozo histórico 21

 por los Aliados en materia de electrónica sobre la Alemania de la posguerra pusieron fin a todo desarrollo posterior. Ni Zuse ni susideas desempeñaron un papel significativo en el desarrollo comercial

del computador2.La historia en el caso británico empieza en Bletchley Park, Buc

kinghamshire, un establecimiento secreto de la época de la guerra dedicado a descifrar los códigos de la Wehrmacht. Con un personal de

 brillantes matemáticos e ingenieros, era casi inevitable que produjeraalgo revolucionario, y cuando eso sucedió apareció el Colossus, uncomputador electrónico3para descifrar mensajes codificados4. El

 primer Colossus se instaló y operó hacia diciembre de 1943, dos añosdespués de que Zuse hiciera oscuramente historia en Berlín. (Algunoscomentaristas disputan sobre si el Colossus era un auténtico computador 5. Fue diseñado para una tarea específica, romper códigos, y poco o nada más podía hacer. Los más entusiastas de Bletchley ha bían intentado obligar al Colossus a hacer largas multiplicaciones, pero, asombrosamente, se vio que esto estaba ligeramente más alláde la frontera de las capacidades de la máquina 6. El computador de

Zuse, por el contrario, podía emprender cualquier tarea deseada decálculo (suponiendo, claro es, que la tarea no fuera tan extensa como para agotar las capacidades de almacenamiento de la máquina). Elcomputador de Zuse era de propósito general, mientras que el Colossus era de propósito especial .)

Después de la guerra el grupo de Bletchley se disgregó y la escena

2  Hasta 1955 no se levantaron las restricciones. Desde 1945 Zuse trabajaba en unlenguaje que llamaba Plankalkul. Sus ideas tuvieron cierta influencia en los diseñadoresdel lenguaje ALGOL (Bauer, op. cit., pp. 521-2).

3  Un computador electrónico es el que está construido con componentes electrónicos. En los primeros tiempos eran tubos de vacío y ahora semiconductores. Excepto lamáquina de Zuse, todos los computadores que se mencionan en este capítulo usabancomponentes electrónicos. Zuse empleaba relés. Éstos son pequeños interruptores mecánicos accionados eléctricamente. Son mucho más lentos que los tubos de vacío. Lostubos deben.su velocidad a que carecen de partes móviles, salvo el flujo de electrones

(de ahí el término). En las calculadoras de antes de la guerra se usaban profusamentelos relés, y, en fecha tan tardía como 1948, la IBM sacó un computador basado en estavieja tecnología (llevaba 21.400 relés y 13.500 tubos de vacío). La máquina, llamadaSSEC, estaba anticuada antes de ejecutar su primer programa.

4  Para los detalles del Colossus, véase Randell, B., «The Colossus» y también suartículo «Alan Turing and the Origins of Digital Computers».

5  Por ejemplo, Stan Aurgarten en Bit By Bit , p, 146.6  Good, I. J., «Pioneering Work on Computers at Bletchley», p. 41.

Page 18: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 18/416

22 Inteligencia artificial. Una introducción filosófica

de la acción se desplazó hacia el norte, a Manchester. Fue aquí dondeF. C. Williams, Tom Kilburn y su equipo construyeron el computador de utilidad general de la Universidad de Manchester llamado

Mark I. El primer programa corrió en junio de 1948 7. En abril de1949 el pequeño prototipo se había convertido en una máquina mucho más grande8. Al otro lado del Atlántico el progreso era un pocomás lento. La primera máquina americana comparable (llamada BI-

 NAC) se probó en agosto de 19499.Una empresa de Manchester, Ferranti Limited, contrató la pro

ducción de una versión comercial del Mark I de Manchester. Estasmáquinas fueron los primeros computadores electrónicos de pro

grama almacenado que se manufacturaron comercialmente en elmundo. Se vendieron nueve en total. La primera se instaló en febrerode 1951, dos meses antes de la aparición de la segunda máquina delmundo disponible en el comercio, la americana U NIV A C10.

El Mark I de Ferranti tuvo además la distinción de ser el primerno humano del planeta que escribió cartas de amor:

Querida Prenda

Tú eres mi ávido sentimiento amigo.Mi afecto pende curiosamentede tu deseo apasionado. Micariño implora a tu corazón. Túeres mi triste simpatía: mitierno cariño.Tuyo rendidamente,Computador de la Universidad de Manchester11

7 Kilburn, T,, Williams, F. C., «The University of Manchester Computing Machine», p. 120.

8  Lavington, S. H,,  A History o f Manchester Computers , pp. 12-15. Cuando com para Ja máquina de Manchester con el computador EDSAC de la Universidad deCambridge, Lavington escribe que «el Mark I de Manchester era un producto muchomenos acabado desde el punto de vista del usuario, pero en cuestión de mascar números ofrecía prestaciones parecidas» (el Mark I tenía además una capacidad de almacenamiento bastante grande). El hecho de que EDSAC fuera más amistoso lo hacía másadecuado para el trabajo matemático serio. Hasta octubre de 1949 el Mark I de Man

chester no estuvo a la altura requerida en este aspecto.9  Stern, N., «The BINA C: A Case Study in the History of Technology», p. 12.10  También se construyó en la Universidad de Manchester el primer computador

transistorizado. Empezó a funcionar en noviembre de 1953.  Early British Computers,de Lavington, hace una presentación excelente de la parte británica de la historia.

11 Lavington, S. H.,  A History o f Manchester Computers, p. 20. Alan Turing produjo las cartas de amor mediante el generador de números aleatorios de la máquina.

Page 19: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 19/416

Los comienzos de la inteligencia artificial: Esbozo histórico 23

La parte norteamericana de la historia comienza con una máquina conocida como ENIAC (iniciales de Computador e Integra-dor Numérico Electrónico. Es una ley sin excepciones que los aeró-

nimos usados para nombrar computadores y programas nuncasignifican nada interesante). El ENIAC lo construyeron en la Universidad de Pennsylvania John Mauchly y J. Presper Eckert, y el primero funcionó en noviembre de 1945 (casi dos años después que elColossus).

El ENIAC era la pesadilla de quien lo programara: había quecablearlo a mano para cada nueva tarea. Esta era una operación ciclópea, en la que había que manejar miles de clavijas e interrupto

res. Normalmente llevaba dos días disponer la máquina para un tra bajo nuevo.12 El único recurso de program ación que EN IA Cofrecía era enredar con los cables. El Mark I de Manchester era mucho menos hostil al ser humano. El Mark I fue el primer computador completamente electrónico del mundo con  programa almace-

nado 13. Para ponerlo a realizar una nueva tarea sólo había queintroducirle una cinta de papel taladrado. La máquina copiaba lasinstrucciones de la cinta y las almacenaba en su propia memoria.Eckert y Mauchly se habían dado cuenta en 1943 de que sería beneficioso poder almacenar dentro del ENIAC las instrucciones deoperación, pero los militares querían que el ENIAC fuera operativolo más pronto posible y la exploración del concepto de programaalmacenado tuvo que esperar14.

Después del ENIAC, Eckert y Mauchly construyeron el BI- NAC, que era una máquina de programa almacenado. Luego cons

truyeron el UNIVAC, la primera oferta en el mercado de la nacienteindustria informática norteamericana. Después de eso los EstadosUnidos llegaron a dominar la producción comercial de computado

12 Describe el ENIAC Goldstine, H. H. y Goldstine, A., «The Electronic Num erical Integrator and Computer».

13 El IBM SSEC, basado en relés, corrió en público por primera vez en enero de1948. Era también una máquina de programa almacenado, pero no enteramente elec

trónica (nota 3).

14 En 1948 se modificó el ENIAC para que operara con un programa almacenado.Esto redujo de días a minutos el tiempo de preparación para el trabajo. Sin embargo, elENIAC modificado nunca fue un computador de programa almacenado en pleno sentido. La razón es que e l programa estaba almacenado en una memoria de lectura solamente, lo que significa que no podía gozar de los beneficios del direccionamiento variable (nota 19). (Metropolis, N., Worlton, J., «A Trilogy of Errors in the History ofComputing», pp. 53-4),

Page 20: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 20/416

24

res. Sin embargo, la historia no ha sido generosa con Eckert y conMauchly. En 1972 una prolongada guerra de patentes entre la Honeywell Corporation y Sperry-Univac acabó en la decisión judicial

de que «Eckert y Mauchly no fueron los primeros en inventar elcomputador electrónico digital automático, sino que lo derivaron deun cierto Dr. John Vincent Atanasoff» I516. Atanasoff era un profesoruniversitario norteamericano que casi logró construir un computadorelectrónico de utilidad general durante el periodo de 1936 a 1942 !6.Desgraciadamente nunca pudo hacer que su máquina fuera por com

 pleto operativa, sobre todo a causa de fallos en una complicada partedel equipo de almacenamiento de información en tarjetas perforadas.

Mauchly visitó el laboratorio de Atanasoff en 1941, y en opinión del juez fue la preparación del terreno que realizó Atanasoff lo que condujo a Mauchly y Eckert al ENIAC. A pesar de la sentencia judicial,aún está vigente la disputa sobre el grado en que las ideas de Atanasoff influyeron en Mauchly y Eckert.

 No fue ésta la primera vez que los acontecimientos dieron a Eckert y Mauchly un amargo golpe. Los meses siguientes a que ENIACfuera operativo debieron haber sido su época de triunfo, pero en realidad fueron oscurecidos por uno de sus colegas, un tal John von Neumann. De Von Neumann, un dotado matemático y lógico, se hadicho que era un «genio extraterrenal» 17. Von Neumann oyó hablarde ENIAC durante un encuentro casual en una estación de ferrocarril. En aquel entonces estaba trabajando en el Proyecto Manhattanen Los Alamos, donde aplicaba su gran genio a siniestros problemastales como calcular la altura exacta a la que debe estallar una bomba

atómica para infligir la mayor destrucción. En seguida vio las implicaciones de una máquina como ENIAC («trabajos en obuses, bom bas y cohetes... progresos en el campo de los propulsores y explosivos ... problemas de aerodinámica y de ondas de choque...» 18). Seofreció como asesor en el proyecto de Eckert y Mauchly, y rápida

Inteligencia artificial. Una introducción filosófica

15 Larson, E. R., «Honeywell, Inc. v. Sperry Rand Corp., et al», p. 694.16 Atanasoff, J. V., «Computing Machine for the Solution of Large Systems of Li

near Algebraic Equations».17 Shurkin, J., Engines o f the M ind , p. 174.18 Tomado de una de las cartas de Von Neumann. (Lo cita Andrew Hodges en

 Alan Turing: The Enigma, p. 304.) Es una idea común que la informatización de la sociedad ha sido un efecto colateral de la informatización de la guerra. La primera tareaauténtica de ENIAC fue ayudar, bajo la dirección de Von Neumann, a diseñar la bomba H.

Page 21: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 21/416

Los comienzos de la inteligencia artificial: Esbozo histórico 25

mente se constituyó en portavoz nacional de la nueva tecnología delos computadores. Von Neumann era un pilar de la ciencia oficial ysu patrocinio hizo maravillas en favor del prestigio del proyecto

ENIAC, pero como resultado de sus conferencias y publicaciones, elcomputador se llegó a asociar más a su nombre que al de la gente quelo trajo al mundo19. Von Neumann solía decir que sólo un natural deBudapest podía entrar detrás de ti por una puerta giratoria y salir antes que tú 20. Él, desde luego, lo era, y Eckert y Mauchly fueron losque quedaron detrás.

Von Neumann hizo luego enormes contribuciones al diseño decomputadores. Enunció los principios fundamentales de la arquitectura a la que se habrían de adherir las siguientes generaciones decomputadores. Por esta razón, los computadores modernos corrientes se conocen genéricamente como máquinas Von Neumann. Oiremos hablar de Von Neumann en capítulos posteriores.

El nombre de John Von Neumann está conectado al nacimientode la inteligencia artificial de otra manera. En 1956 se ejecutó en elJOHNNIAC, un refinado ordenador que diseñó él, el más influ-

19 Se ha levantado una controversia harto amarga sobre el origen del concepto de programa almacenado. El concepto está presente en el fundacional artículo de AlanTuring «On Computable Numbers, with an Application to the Entscheidungspro- blem», publicado en 1936’(véase sobre todo el tratamiento de las descripciones estándar y los números de descripción, pp. 240-2). En los Estados Unidos, el primer estudio publicado del concepto de programa almacenado se debió a Von Neumann, «FirstDraft of a Report of the EDVAC», que apareció en 1945. (EDVAC fue el sucesor delENIAC.) Puesto que sólo Von Neumann figura como autor de este informe, mucha

gente creyó que era el creador del concepto. En realidad el «First Draft» fue. una sumade las ideas de Eckert, Mauchly, Von Neumann y otros miembros del grupo ENIAC.Eckert y Mauchly se enfadaron cuando sólo apareció el nombre de Von Neumann enla publicación del «First Draft» (aunque quizá esto ocurriera sin permiso de Von N eu mann; véase la nota 33). El concepto de almacenar los datos sobre los que operar y lasinstrucciones de operación en los mismos discos internos parece tener su origen en unamemoria que Eckert escribió en enero de 1944, meses antes de que Von Neumann seuniera al grupo ENIAC (Eckert, J. P., «The ENIAC»). La principal contribución deVon Neumann al concepto de programa almacenado fue la idea de las direcciones va-

riables  (véase Burks, A, B,, «From ENIAC to the Stored-Program Computer: TwoRevolutions in Computers», p. 340). La invención de Von Neumann, que abrió el camino al uso de subrutinas y bucles, permite la automodificación del programa mientras opera. En el capítulo 4 se describe con detalle una versión más eficaz del direccio-namiento variable llamada díreccionamiento indirecto. El direccionamiento indirecto se inventó en Manchester y se realizó sobre el Mark I (véase Lavington, S. H.,  A His-

tory o f Manchester Computers, p. 12).20 Citado en Shurkin, J,,  Engines o f the M indt  p. 173.

Page 22: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 22/416

26 Inteligencia artificial. Una introducción filosófica

y ente de los primeros esfuerzos en programación de I A 21. El pro-grama lleva el afectuoso nombre de «Logic Theorist». Fue la obra deAlien Newell, Cliff Shaw y Herbert Simon, tres de los grandes pio-

neros de la IA 22.

1.2. El Lógico Teórico

La lógica es una preocupación central de la investigación en IA.La capacidad de razonar lógicamente es, por supuesto, un compo-nente fundamental de la inteligencia humana; si los computadoreshan de alcanzar la categoría de inteligencias artificiales, hay que dar-les la capacidad de buscar lógicamente la solución de un problema.

 Newell, Shaw y Simon fueron iniciadores del estudio de cómo sehace eso.

Su plan inicial era escribir un programa que pudiera inventar sus propias pruebas de teoremas de geometría elemental. Sin embargo, eléxito les fue esquivo, en gran parte porque resultó inopinadamente

difícil representar los diagramas geométricos de una manera que jO H N N IA C pudiera manejar23. Sin desalentarse, volvieron su aten-ción al proyecto análogo de programar un computador para que bus-cara de forma lógica —esto es, incestuosamente— demostraciones deteoremas de lógica pura. Esta vez encontraron oro, y en la primaverade 1956 el Lógico Teórico demostró su primer teorema.

La lógica pura contiene teoremas como éstos:

Dado que X o Y es verdadero, y dado además que Y es de hechofalso, se sigue que X es verdadero.

21 El JO H N NIA C, propiedad de la RA ND Corporation de Santa Mónica, era unacopia casi fiel de la máquina que Von Neumann y su equipo construyeron en el Insti-tute for Advanced Study de Princeton. Se hicieron muchas copias semejantes. Llega-

ron a ser conocidas como máquinas clase Princeton (véase Gruenberger, F. J., «TheHistory of the JOH NN IAC »).22 Newell, A., Shaw, J. C. y Simon, H. A., «Empirical Explorations with the Logic

Theory Machine: a Case Study in Heuristics».23 Herbert Gelertner retomó este proyecto, y en 1959 su programa demostró su

 pr imer teorema de geometría euclidiana elemental. (Gelertner, H., Hansen, J. R. yLoveland, D. W., «Empirical Explorations of the Geometry Theorem ProvingMachine».)

Page 23: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 23/416

Los comienzos de la inteligencia artificial: Esbozo histórico 27

A partir de la información de que si X es verdadero entonces Y esverdadero, se sigue que si Y es falso, X es falso también* (Escierto. Piense en ello.)

Las áreas centrales de la lógica pura las codificaron y sistematizaron los filósofos Bertrand Russell y Alfred North Whitehead enlos primeros años de este siglo. El Lógico Teórico fue contrastadocon el capítulo 2 del libro de estos autores,  Principia Mathematical  que abrió nuevas sendas en lógica, y el programa consiguió demostrar treinta y ocho de los primeros cincuenta y dos teoremas quecontiene. Aquí había por primera vez un programa que no sólomascaba números, sino que sacaba pruebas de enunciados abstractos. A escala microscópica el Lógico Teórico era capaz de razonar.En el caso de uno de los teoremas, la demostración ingeniada por elLógico Teórico era bastante más elegante que la dada por Russell yWhitehead. Como dice Shaw, «eso añadió un aliciente a nuestroempeño»2425. Los tres hombres escribieron un breve artículo que describía la nueva demostración y, junto a sus nombres, añadieron de

 buen grado el del Lógico Teórico como coautor. Era el primer ensayo académico de la historia co-escrito por una máquina, perodesafortunadamente el editor de The Journal o f Symbolic Logic rehusó publicarloa5.

A menudo se dice que el Lógico Teórico fue inequívocamente«el primer» programa de IA. Esto, sin embargo, es un mito, una

 parte del no siempre exacto folklore de la IA. El Lógico Teóricofue, sin duda, el más fecundo de los primeros proyectos de IA, pero

fue precedido por varios programas diseñados para jugar al ajedrezy otros juegos de tablero (entonces, como ahora, estos juegos seconsideraban un importante banco de pruebas de la inteligencia delas máquinas). Entre los predecesores destacó un programa de damas que incorporaba un mecanismo de aprendizaje. El programacaptó rápidamente las mañas del juego y en seguida fue capaz dederrotar a su creador, Arthur Samuel. (La sección 2.6 del siguientecapítulo comenta este triunfo del programa sobre su creador.) Samuel tenía listo y en funcionamiento su programa a principios de

24  Tomado de una entrevista con Pamela McCorduck, recogida en su  Machines 

Who Think , p. 143.25 Ibid., p. 142.

Page 24: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 24/416

28 Inteligencia artificial. Una introducción filosófica

los cincuenta, y lo exhibió en la televisión norteamericana variosaños antes de que se escribiera el Lógico Teórico26.

Examinaremos más despacio la obra de Newell, Simon y Shaw en

los capítulos 2 y 5.

1.3. La Conferencia de D ar tm outh

El campo de la inteligencia artificial recibió su nombre de JohnMcCarthy, uno de los héroes legendarios de la revolución informá-tica. Entre sus famosas contribuciones está la invención del LISP (ellenguaje de programación empleado por la gran mayoría de los pro-gramas. de IA) y la creación del primer sistema de tiempo compartido(la disposición que permite a un computador atender simultánea-mente las demandas de un gran número de terminales). En 1965McCarthy organizó la conferencia que en la IA consideran el naci-miento de su disciplina27. McCarthy quería reunir a todas las perso-nas que sabía que estaban interesadas en la inteligencia de los compu-

tadores. Muchas nunca se habían visto y las invitó a todas a unverano de reflexión, una oportunidad para que durante dos mesescada una estimulara las ideas de las demás. Eligió el Dartmouth Co-llege, en New Hampshire, como sede, y tituló su conferencia The

26 Está muy extendida la idea de que el Lógico Teórico fue el «primero». Véase, por ejemplo, Fleck, J., «Development and Establishment in Artificial Intelligence», p. 115(el Lógico Teórico fue «el primer programa desarrollado típico de la IA que funcio-

nara»); Simons, G. L.,  Introducing Artificial Intelligence , p. 48 (el Lógico Teórico fue«el primer programa efectivo de IA»); Waldrop, M. M.,  ManMade Minds: The Pro-

mise o f Artificial Intelligence, p. 23 (el Lógico Teórico fue «el primer programa autén-tico de IA»). Un autor afirma incluso que «el programa de Samuel fue precedido en1956 por un programa llamado Lógico Teórico». (Berry, A., The SuperIntelligent  

 Machine, p. 30). Feigenbaum y Feldman dicen que el Lógico Teórico fue «el primer programa heurístico realizado íntegramente en un computador» en su influyente

Computers and Thought  (p. 180). Sin embargo, con las propias palabras de Samuel, su programa «consiguió el objetivo —mejorar su juego gracias a [un] proceso de aprendi-

zaje que entrañaba una heurística— muy al principio de su existencia, desde luego, bastante antes de 1956... Salvo por el hecho de que no se hizo publicidad de la existen-cia de mi programa de damas, se puede argumentar que en esta fecha ya se había "reali-zado íntegramente” un programa que empleara heurísticas para aprender... Mi pro-grama de damas fue uno de los primeros programas de cualquier tamaño en serejecutado en el primer modelo experimental del... IBM 701». (Comunicación personal,6 de diciembre de 1988.)

27   Feigenbaum, E. A. y Feldman, J., Computers and Thought , p. 108.

Page 25: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 25/416

Los comienzos de la inteligencia artificial: Esbozo histórico 29

 Dartmouth Summer Research Project on Artificial Intelligence, Lasdos últimas palabras hicieron fortuna.

La conferencia, en muchos sentidos, no fue un éxito. La mayoría

de la gente que McCarthy invitó no halló que dos meses cabales de«tormenta de cerebros» fuera una perspectiva tentadora. Fueron frecuentes las visitas breves, y la gente iba y venía errática. «Eso significó que no pudo haber reuniones regulares», se quejaba McCarthy.«Para mí fue una gran frústración... Tampoco hubo, por lo que yo

 pude ver, ningún intercambio auténtico de ideas»28. Además muchosánimos se encresparon cuando Newell y Simon —dos personajes

 prácticamente desconocidos que habían sido invitados casi de com parsas— llegaron del JOH N N IA C con las tiradas de impresora delos primeros ensayos del Lógico Teórico. A nadie le gusta que le quiten brillo y en la conferencia de McCarthy no eran una excepción.

A pesar de todo, la conferencia de Dartmouth tuvo un efecto catalizador. Lo que antes había sido una dispersión de entusiastas individuales que trabajaban en relativo aislamiento se convirtió de prontoen una comunidad científica con sus propias metas de investigación y

un fuerte sentido de identidad. La IA hizo su debut. En los años siguientes a Dartmouth se establecieron laboratorios de inteligencia artificial en diversas universidades, especialmente en Carnegie Mellon, bajo Newell y Simon; en Stanford, bajo McCarthy; en el MIT, bajoMarvin Minsky (coorganizador de la conferencia de Dartmouth); yen Edimburgo, bajo Donald Michie (una figura prominente de la escena de la IA británica).

1.4. Alan Turing y la filosofía de la IA

Casi paradójicamente, la filosofía de la IA apareció varios añosantes que la IA misma. El padre fundador de esta rama de la filosofíafue Alan Turing, lógico y matemático británico. Turing es una de lasmentes más originales que ha producido este siglo. Seis años antes deque por primera vez se ejecutara el Lógico Teórico en el JO H N

 NIAC (y mientras supervisaba la programación del Mark I de Manchester) publicó un artículo titulado «Computing Machinery andIntelligence» («¿Puede pensar una máquina?» en español) en la so-

28 Tomado de una entrevista con Pamela McCorduck, recogida en su  Machines Who Think , pp. 95-6.

Page 26: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 26/416

Page 27: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 27/416

Los comienzos de la inteligencia artificial: Esbozo histórico 31

 peregrino y poco meditado. El cuidadoso artículo de Turing puso eldebate a un nivel distinto.

Era típico de Turing escribir sobre la filosofía de la IA con tal

adelanto sobre la Conferencia de Dartmouth: a menudo iba años pordelante de todo el mundo. En 1936, cinco años antes de que Eckert yMauchly echaran mano de sus soldadores, escribió (casi por accidente) un ensayo definitivo sobre los fundamentos lógicos del diseñode computadores32. El tema auténtico del artículo era un problemaabstracto de la lógica matemática, y en el curso de su resolución se lasarregló para inventar, en concepto, el computador de propósito general con programa almacenado. Este artículo sigue siendo uno de losclásicos supremos de la teoría de la computación. Los computadoresabstractos que Turing inventó se conocen hoy día simplemente comomáquinas de Turing. Se describen en el capítulo 6.

Durante la guerra, Turing trabajó como descifrador de códigos enBletchley Park, y los diseñadores del Colossus estaban, sin duda, familiarizados con el concepto de máquina de Turing33. Sin embargo,curiosamente, Turing mismo tuvo poca o ninguna intervención en la

construcción del Colossus. Rechazó una invitación a unirse al proyecto, y de hecho estaba de visita en Estados Unidos durante el período en que se consiguieron los avances tecnológicos decisivos34. SiTuring hubiera prestado su colaboración al proyecto, bien se podríahaber construido en Bletchley el primer computador electrónico deutilidad general. (Turing desempeñó un papel clave descifrando códigos 35. Un miembro del equipo de Bletchley dijo: «No diré que Tu-

32 Turing, A. M., «On Computable Numbers, with an Application to the Ents-cheidungsproblem».

33 Como lo estaba, sin duda, Von Neumann. Stanley Frankel, uno de los primeroscientíficos que emplearon el ENIAC, escribe: «Von Neumann conocía sobradamentela importancia fundamental del artículo de 1936 de Turing... que describe los princi pios del Computador Universal del cual cada computador moderno... es una realización... Muchos han aclamado a Von Neumann como “padre del computador”, pero estoy seguro de que él nunca habría cometido ese mismo error. Bien se le podría haber

llamado la comadrona quizá, pero ante mí, y estoy seguro de que también ante otros,insistía en que la concepción fundamental pertenecía a Turing, puesto que ni Babbage,Lovelace ni otros la habían anticipado.» (Tomado de una carta reproducida en Randell, B.,«On Alan Turing and the Origins of Digital Computers», p. 10.) Se describe la obra deBabbage eh el capítulo 4.

i4  Hodges, A., Alan Turing:' The Enigma, pp. 267-8.35 Los alemanes tenían un código supuestamente impenetrable conocido como

 Enigma, que a lo largo de toda la guerra fue su principal método de salvaguardar sus

Page 28: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 28/416

ring nos hizo ganar la guerra, pero me atrevo a decir que sin él podríamos haberla perdido»36.)

El descubrimiento accidental de Turing de un computador imagi

nario llegó a dominar su vida profesional, pues durante los años de la posguerra se comprometió apasionadamente en el desarrollo de máquinas reales. Su experiencia con la electrónica durante la guerra lehabía mostrado que la «máquina» de papel de su artículo de 1936 se

 podía convertir en realidad. En 1945 se unió al National Physical La boratory e ideó diseños de un computador electrónico de propósitogeneral llamado ACE37. Como era típico de él, su máquina era demasiado rápida y compleja para construirla en aquel tiempo. Faltabandiez años para que el ACE de Turing estuviera disponible comercialmente, e incluso entonces no fue sino una sombra del ambicioso diseño original. Turing abandonó descontento el proyecto en 1948 y

32 Inteligencia artificial. Una introducción filosófica

comunicaciones de radio ante los ávidos escuchas aliadoá. Turing ideó una máquina para descodificar rápidamente los mensajes emitidos en  Enigma,  y con ello dio a losaliados pleno acceso a la red de comunicaciones de radio de la Wehrmacht. En 1942 el personal de Bletchley descodificaba 50,000 mensajes interceptados al mes, uno por minuto. Desde órdenes individuales para capitanes de submarino hasta planes del másalto nivel. Ésta fue la primera guerra, y probablemente la última, en que un bando fue bendecido con el conocimiento detallado y previo de la estrategia del otro. Las máquinas descifradoras de Turing, que hacían un tic-tac muy fuerte, eran conocidas como«bombas». Hodges ofrece una narración excelente de las operaciones de Bletchley,op. cit., capítulo 4.

36 I. J. Good en una entrevista con Pamela McCorduck, recogida en su  Machines Who Think , p. 53.

37 He aquí la presentación que hace el propio Turing de la relación entre la Máquina de Turing y el ACE: «Hace algunos años yo estaba trabajando sobre lo queahora se podría describir como una investigación de las posibilidades y las limitacionesteóricas de las máquinas computadoras digitales. Estudiaba un tipo de máquina con unmecanismo central, y una memoria infinita contenida en una cinta infinita... Las máquinas como ACE se pueden considerar versiones prácticas de este tipo de máquina»(«Lecture to the London Mathematical Society on 20 February 1947», pp. 106-7). Enuna carta a Ross Ashby (sin fecha, pero escrita cuando Turing trabajaba en el ACE enel Laboratorio Nacional de Física) dice: «El ACE es análogo a la “máquina universal”

descrita en mi ensayo sobre números computables [sicj... sin alterar el diseño de la máquina, ésta se puede, en teoría al menos, usar como modelo de cualquier otra máquinahaciendo que recuerde un conjunto apropiado de instrucciones» (Archivo NPL, Bi blioteca del Museo de Ciencias, South Kensington, Londres). Com o sugiere Hodges(Alan Turing: The Enigma, p. 556), Sara Turing citaba más o menos las palabras de suhijo cuando escribía «... su propósito [era] ver que su teoría lógica de una máquina universal, expuesta ya en su ensayo “Computable Numbers” [sic]...  tomara forma concreta en una máquina real» (Alan M. Turing, p. 78).

Page 29: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 29/416

Los comienzos de la inteligencia artificial: Esbozo histórico 33

fue a Manchester a introducir la ciencia de la programación de com- putadores38.

En junio de 1954 Alan Turing se suicidó comiendo una manzana

empapada de cianuro. Algún tiempo atrás un tribunal de lo penal lohabía declarado culpable de homosexualidad y lo había sentenciado a

un periodo de «tratamiento» hormonal, un degradante abuso desti

nado a destruir su libido. Cuando Turing murió, la ciencia de los

computadores perdió a uno de sus pensadores geniales, Gran Bretaña

 perdió a un científico con el que está en grave deuda y la inteligencia

artificial perdió a su primer gran profeta.

38 El modelo industrial se llamó DEUCE. En 1950, dos años después de que Tu

ring abandonara el proyecto, funcionó una versión piloto del ACE, que por entonces

era la máquina más rápida del mundo.

Page 30: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 30/416

Capítulo 2

ALGUNAS PRUEBAS SORPRENDENTES

La inteligencia artificial ha andado un largo trecho desde su inicioen 1956. Este capítulo hace un recorrido por los laboratorios de IAde Estados Unidos y presenta algunas de sus creaciones más espectaculares. Por el camino señalo algunos rasgos de interés filosófico y

 preparo la escena para las discusiones más importantes que se des pliegan en capítulos ulteriores. También toco algunas cuestioneséticas. Un objetivo del recorrido es obligar a quienes se inclinen alescepticismo a conceder que la idea de un «computador pensante»merece ser tomada en serio. Esta idea no se puede dar de lado; las páginas siguientes pueden parecer ciencia-ficción, pero los programasque describo son completamente reales.

2*1. Den tro de la máquina

Antes que nada, ¿qué es un programa de computador? En caso deque usted no haya visto nunca uno de estos misteriosos objetos, heaquí un modesto espécimen. Está escrito en el lenguaje de programación BASIC. (Los números de la izquierda son números de línea. Laslíneas se numeran para facilitar la referencia. Los números van de 100

34

Page 31: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 31/416

Algunas pruebas sorprendentes 35

en 100 para que no haya necesidad de cambiar la numeración de todoel programa si en una fase posterior se insertan más líneas.)

100 PRINT “¿Cuál es tu nombre?"

 Esta instrucción hace que el computador muestre en la pantalla las palabras 

entrecomilladas. La persona que maneja el teclado escribe «Alicia».

200 INPUT NOMBRE$

 Esta línea le dice al computador que almacene cualquier cosa que la persona 

teclee y y que le ponga la etiqueta «NOMBRES», para futura referencia, a la in- formación almacenada. (El signo del dólar es una de las peculiaridades del  BASIC. Se le añade a las etiquetas de palabras para que se distingan de las etiquetas de números.)

300 PRINT “Dime",  NOMBRES, “¿crees que los computadores pueden pensar?Por favor, responde simplemente sí o no."

Cuando este mensaje aparece en la pantalla, el computador inserta el nombre 

«Alicia».

400 INPUT RESPUESTAS

 El computador almacena la respuesta de Alicia y la etiqueta «RESPUESTAS».

500 IF RESPUESTAS = “SÍ" THEN PRINT “Muchas gracias",  NOMBRES, “Veoque nos vamos a llevar bien."

600 IF RESPUESTAS = “NO” THEN PRINT “Bueno, bueno”,  NOMBRES, “Ésa esuna posición filosófica interesante. Supon que la psicología y la neurocienciadescubren que el cerebro humano funciona de forma muy parecida a comolo hace un computador. ¿Significaría eso que tampoco tú piensas?”

700 END.

2,2. Parry, el program a paranoico

En las fantasías de ciencia-ficción el personal de las naves conversacon sus computadores. En los laboratorios de IA de California lafantasía se ha hecho realidad. Para conversar con Parry hay que sentarse frente a un monitor de video y teclear en él. Las respuestas apa

Page 32: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 32/416

36 Inteligencia artificial. Una introducción filosófica

recen en la pantalla; desde el punto de vista humano, el tiempo quetarda en responder es desconcertantemente breve h Parry es hostil yestá a la defensiva. También es impredecible. Incluso su creador, el

 psiquiatra Kenneth Colby, es a menudo incapaz de anticipar sus res- puestas. (Colby construyó su paranoico artificial como parte de unintento de comprender los procesos que subyacen a la enfermedad12.)

La siguiente conversación está seleccionada de una entrevista en-tre Parry y un psiquiatra. Primero habla el psiquiatra.

¿Por qué estás en el hospital? NO DEBERÍA ESTAR AQ UÍ.

¿Quién te trajo aquí?LA POLICÍA.

¿Qué problemas tienes con la policía?LOS POLIS NO HA CEN SU TRABAJO.

¿Qué hacen, pues?LOS POLIS ARRESTAN AL QUE NO DEBEN. .

A veces arrestan a los que deben.LA LEY DEBERÍA COGER A ESOS LADRONES ITALIANOS.

¿Eres italiano?MIS ANTEPASADOS SON BRITÁNICOS PERO NACÍ EN ESTE PAÍS.

¿Conoces a algún ladrón italiano?INTENTO EVITAR LOS BAJOS MUNDOS.

¿Tienes miedo de los bajos mundos?LA MAFIA SON LOS PEORES GANGSTERS.

¿Estás relacionado con la Mafia?YA SABE, ELLOS ME CONOCEN.

¿Cómo es que te conocen?ME ESPÍAN.

¿Por qué?QUIEREN CONSEGUIR PRUEBAS FALSAS PARA EMPURARME.

¿Qué tienen contra ti?QUIEREN COGERME.

¿Para qué?TENGO PRUEBAS INCRIMINADORAS CONTRA LA MAFIA.

¿Estás seguro de todo eso?

¿NO ME CREE?Hago lo que puedo.

1 Heiser, J. F., Colby, K. M., Faught, W, S. y Parkison, R. C , «Can PsychiatristsDistinguish a Computer Simulation of Paranoia from the Real Thing?»

2 Véase Colby, K. M., Artificial Paranoia y «Modeling a Paranoid Mind».

Page 33: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 33/416

Algunas pruebas sorprendentes 37

Parry permanece callado. El psiquiatra permanece callado.

¿NO SE LE OCURRE UNA PREGUNTA DECENTE QUE HACER?

Pareces hostil hacia mí.ALGUNAS DE SUS OBSERVACIONES ME OFENDEN.

Lo siento.OLVIDE LAS EXCUSAS, TODOS USTEDES SON IGUALES.3

Parry es tan convincente que, cuando a alguien se le pide decidir por medio de una entrevista si se están comunicando con un programa o una persona, tiene auténtica dificultad en averiguarlo4. A

menudo no puede más que conjeturar. La escalofriante verdad es queColby ha hecho una máquina que actúa como un hombre.

2 3 .   Eliza, la psicoterapeuta

Eliza, de Joseph Weizenbaum, es probablemente el programa deIA más famoso5. Eliza desempeña el papel opuesto a Parry: realiza

entrevistas psicoterapéuticas a seres humanos. Durante muchos añosse le permitió recibir en el laboratorio de IA del MIT, donde charlabasolícita con profesores y periodistas visitantes sobre sus penas y manías. Sin duda muchos de ellos salieron de sus sesiones con el computador abrigando un profundo sentimiento de inquietud.

He aquí una conversación entre Eliza y una adolescente6. La chica habla primero.

Todos los hombres son iguales.EN QUÉ SENTIDO.

Siempre nos están chinchando con una cosa u otra.PUEDES PENSAR EN UN EJEMPLO ESPECÍFICO.

Mi novio me hizo venir aquí.TU NOVIO TE HIZO VENIR AQUÍ.

Dice que estoy deprimida muchas veces.LAMENTO OÍR QUE ESTÁS DEPRIMIDA.

3 Colby, K. M., Weber, S., e Hilf, F. D., «Artificial Paranoia», pp. 16-18.4 Véase capítulo 3, sección 3.3.5 Como a veces se cuenta, Weizenbaum bautizó su programa así po r Eliza Doolit

tle, el personaje de la comedia  Pigmali6ny de George Bernard Shaw. Weizenbaum,como el profesor de la obra, enseñaba a su protegida a hablar cada vez mejor.

6 Weizenbaum, J., Computer Power and Human Reason, pp. 3-4.

Page 34: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 34/416

38 Inteligencia artificial. Una introducción filosófica

Es cierto que soy desgraciada.CREES QUE VENIR AQUÍ TE AYUDARÁ A NO SER DESGRACIADA.

 Necesito ayuda, eso parece seguro.

QUÉ SIGNIFICARÍA PARA TI CONSEGUIR AYUDA.Quizá aprendería a llevarme bien con mi madre.DIME MÁS COSAS SOBRE TU FAMILIA.Mi madre cuida de mí.QUIÉN MÁS, EN TU FAMILIA, CUIDA DE TI.Mi padre.TU PADRE.Eres como mi padre en algunos aspectos.QUÉ PARECIDO VES.

 No eres muy agresivo, pero creo que no deseas que yo me dé cuenta.QUÉ TE HACE PENSAR QUE NO SOY MUY AGRESIVO.

 No discutes conmigo.POR QUÉ PIENSAS QUE NO DISCUTO CONTIGO.Porque me tienes miedo.TE GUSTA PENSAR QUE YO TE TENGO MIEDO.Mi padre tiene miedo de todo el mundo.QUÉ MÁS COSAS SE TE OCURREN CUANDO PIENSAS EN TU PADRE.

Abusones.TIENE ESO ALGO QUE VER CON EL HECHO DE QUE TU NOVIO TE HICIERA VE NIR AQUÍ,

Como el Dr. Frankenstein, pronto Weizenbaum se sintió abrumado por el horror de su criatura7. La gente respondía a su máquinacomo si fuera un ser humano. En las entrevistas a menudo formabanun fuerte lazo emocional con Eliza, un lazo que Weizenbaum hallaba

obscenamente fuera de lugar. «No me había dado cuenta», escribeWeizenbaum, «de que exposiciones extremadamente breves a un programa de computador relativamente simple pueden inducir ideas gravemente extraviadas en gente muy normal»8. La máquina podía inducir a las personas sin esfuerzo a revelar sus más íntimos secretos, ya veces a Weizenbaum le resultaba difícil convencerlas de que Elizano era una persona auténtica. Incluso su propia secretaria —que acierto nivel sabía muy bien que la creación de Weizenbaum era sim plemente una máquina— cogió la costumbre de obligar al resto del personal a abandonar la habitación para que ella y Eliza pudieran ha blar en privado.

7 Weizenbaum, J., Computer Power and Human Reason, pp. 1-16.8 Weizenbaum, J., ibidem, p. 7.

Page 35: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 35/416

Algunas pruebas sorprendentes 39

Conforme se extendió la voz, gentes chifladas empezaron a telefonear a Weizenbaum pidiendo que Eliza les ayudara con sus problemas 9. La pesadilla empeoró cuando Weizenbaum se dio cuenta de

que había psiquiatras que no tenían inconveniente en dejar que lamáquina se ocupara de sus pacientes. Un informe en el Journal o f   Nervous and Mental Disease afirmaba que una vez que el programaestuviera listo para su uso clínico, «suministraría una herramienta terapéutica de la que se podrá disponer ampliamente en los hospitalesmentales y centros psiquiátricos escasos de terapeutas... Un sistemainformático diseñado para este propósito podrá ocuparse de cien pacientes en una hora» 1011. Esta propuesta pone de relieve una tendencia

 peligrosa de nuestra sociedad: un deseo, casi un ansia, de confiar alcomputador el bienestar de los seres humanos. Esto es algo que Weizenbaum encuentra profundamente perturbador.

Su experiencia de las reacciones humanas ante Eliza han convertido a Weizenbaum en un oponente implacable de la construcción deinteligencias artificiales. Dibuja un vivido retrato del fin último de laIA, que es «nada menos que construir una máquina según el modelo

humano, un robot que ha de tener una infancia, aprender un lenguajecomo un niño, adquirir conocimiento del mundo a través de sus órganos sensoriales y, en último término, abarcar el dominio entero del

 pensamiento humano» 11. La cuestión im portante, alega Weizen- baúm, no es si esas cosas se pueden  hacer, sino si se deben  hacer. Élcree que las inteligencias artificiales, por su propia naturaleza, seríanincapaces de comprender cabalmente la condición humana o de sim

 patizar con ella12. Sin embargo, como demuestra la reacción ante

Eliza, puede que haya una disposición excesiva a confiar a estas inteligencias extrañas la administración de los asuntos humanos.

2.4. Shrdlu, el robo t

Eliza sólo tiene una habilidad: devuelve a sus «pacientes» sus pro pios enunciados, a la manera clásica de una psicoterapeuta no direc

9 McCorduck, P., Machines Who Think , pp. 254-5.10 Colby, K. M., Watt, J. B. y Gilbert, J. P., «A Computer Method of Psychothe

rapy: Preliminary Communication», p/152.11 Weizenbaum, J., ibidem, pp. 202-3.n Weizenbaum, J., ibidem, capítulo 8.

Page 36: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 36/416

40 Inteligencia artificial. Una introducción filosófica

tiva. El programa no tiene ninguna de las capacidades que se asocianusualmente a la inteligencia. Eliza no sabe nada de su entorno, notiene capacidad de razonar, no puede planear acciones, no puede

aprender nada y no posee ninguna comprensión de sus propios motivos. Terry Winograd, mientras trabajaba en el MIT, fue uno de los

 primeros en abordar el problema de conferir a un computador estascapacidades. El resultado fue su programa Shrdlu (el nombre es una

 palabra sin sentido que Winograd tomó prestada de la revista MAD).Shrdlu controla el brazo de un robot que opera sobre una mesa

llena de bloques de colores de varias formas y tamaños. En realidad,tanto el brazo como el entorno son imaginarios: el computador lossimula y sintetiza una imagen de TV de las acciones del brazo. La comunicación entre el humano y el robot se establece a través de un teclado, y las respuestas del computador aparecen como «subtítulos»en la pantalla. Cuando se le dice que coloque los bloques en una configuración particular, Shrdlu inventa y ejecuta su propio plan de acción. Su capacidad para interpretar instrucciones en inglés ordinarioes impresionante, y se muestra hábil al conjeturar el significado más

 probable de una orden ambigua. El poder de razonamiento de Shrdlule permite contestar preguntas complicadas sobre el mundo de sumesa, y puede, dentro de ciertos límites, examinar sus propios «motivos».

He aquí una conversación entre Winograd y Shrdlu B. Las intervenciones de Shrdlu van en mayúsculas. (Las interrupciones en cursiva son mías.)

Coge un bloque rojo grande.DE ACUERDO.

 En la pantalla el brazo del robot se mueve. Se ven dos bloques rojos, uno pe-queño y otro grande (figura 2.1). Encima del grande hay un cubo verde. El robot primero traslada el cubo verde a la mesa y luego coge el bloque rojo. Busca un bloque más alto que el que sostienes y ponlo en la caja.ENTIENDO QUE «LO» SE REFIERE AL BLOQUE QUE ES MÁS ALTO QUE EL QUESOSTENGO.

Shrdlu deja el bloque rojo, coge uno azul más alto y lo pone en la caja.¿Qué contiene la caja?13

13 Lo que sigue es una versión corregida de una transcripción reproducida en Winograd, T., Understanding Natural Language, pp. 8-15. Dos de las entradas no proceden de esta fuente, sino de Winograd, T.,  Procedures as a Representation fo r Data in a Computer Program for Understanding Natura l Language, p. 44.

Page 37: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 37/416

Algunas pruebas sorprendentes 41

FIGURA 2.1.  El mundo de bloques de colores de Shrdlu. (Basada en la figura 3de Winograd, T.yUnderstanding Natural Language.,)

LA PIRÁMIDE AZUL Y EL BLOQUE AZUL.¿Qué sostiene a la pirámide?

LA CAJA. En realidad sobre la mesa hay otras dos pirámidesy una roja y otra verde. Shrdlu supone. acertadamente que la pregunta alude a la pirámide recién 

mencionada.¿Cuántos bloques están fuera de la caja?

CUATRO.¿Hay al menos u no que sea más estrecho que el que te dije que cogieras?

Sí, EL CUBO ROJO.¿Está sostenido?

Sí, POR EL BLOQUE VERDE.¿Puede la mesa coger bloques?

 NO.¿Puede una pirámide ser sostenida por un bloque?

Sí.

¿Puede una pirámide sostener otra pirámide? NO LO SÉ.Apila dos pirámides.

 El robot lo intenta y fracasa. NO PUEDO.La pirámide azul es mía.

ENTIENDO.

Page 38: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 38/416

Yo poseo ios bloques que no son rojos, pero no poseo nada que sostenga una pirámide.ENTIENDO.

 Las cuatro preguntas siguientes dan a Shrdlu una oportunidad de mostrar sus  poderes lógicos y de deducción,¿Poseo la caja? NO.

¿Poseo algo que esté dentro de la caja?Sí, DOS COSAS: EL BLOQUE AZUL Y LA PIRÁMIDE AZUL.¿Hay algo que sea mayor que cualquier pirámide pero no sea tan anchocomo la cosa que lo sostiene?Sí, EL BLOQUE AZUL.

¿Sostiene algo verde la cosa más corta que sostiene el soporte de la pirámidemás alta?

 A Shrdlu le llevó menos de veinte segundos entender esto; yo necesité bastan-te más.Sí, LA PIRÁMIDE VERDE.¿De qué color es?Shrdlu supone sensatamente que la pregunta no se refiere a la pirámide verde.SUPONGO QUE TE REFIERES A LA COSA MÁS CORTA QUE SOSTIENE EL SO-

PORTE DE LA PIRÁMIDE MÁS ALTA. ROJO.Una torreLO SIENTO, NO CONOZCO LA PALABRA «TORRE».

Shrdlu se interrumpe tan pronto encuentra una palabra que no conoce.Una «torre» es un apilamiento que contiene dos cubos verdes y una pirámide.ENTIENDO.¿Hay alguna torre ahora?

 NO.

¿Quieres apilar, por favor, los dos bloques rojos y un cubo verde o una pi-rámide?DE ACUERDO.Shrdlu opta por apilar los bloques rojos con un cubo verde. Durante la cons-trucción de la pila tiene que quitar la pirámide verde de encima de uno de los bloques rojos. Recuerde esto.¿Cuál de los bloques verdes reposa sobre la mesa?EL QUE SOSTIENE LA PIRÁMIDE ROJA.Pon la pirámide más pequeña encima de él

DE ACUERDO.Shrdlu toma la pirámide verde pequeña.¿Has tocado alguna pirámide antes de poner una sobre el bloque verde?Sí, LA VERDE.¿Cuándo la cogiste?CUANDO ESTABA APILANDO UN CUBO ROJO, UN CUBO VERDE GRANDE Y UNBLOQUE ROJO GRANDE.

42 Inteligencia artificial. Una introducción filosófica

Page 39: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 39/416

Algunas pruebas sorprendentes 43

¿Por qué?PARA QUITARLA.¿Por qué hiciste eso?

PARA DESPEJAR EL CUBO ROJO.¿Por qué despejaste ese cubo?PARA PONERLO ENCIMA DE UN CUBO VERDE GRANDE.¿Por qué hiciste eso?PARA APILAR UN CUBO ROJO, UN CUBO VERDE GRANDE Y UN BLOQUE

GRANDE ROJO.¿Por qué hiciste eso?PORQUE ME LO PEDISTE TÚ.

Leyendo este curioso diálogo es fácil imaginar el advenimiento deandroides inteligentes dentro de unos cuantos años. El capítulo 5 in-vestiga si esto es así.

2.5. Hacker, el programa programador

En la jerga de la informática, «hacker» es quien programa obsesi-vamente 14. Joe Weizenbaum, creador de Eliza, y a su vez ex progra-mador obsesivo, da una descripción colorista de esta adicción.

En todos los lugareá donde se han establecido centros informáticos... hom- bres jóvenes y brillantes de aspecto desaliñado, a menudo con un resplandoren sus ojos hundidos, se sientan frente a consolas de ordenador, los brazostensos y esperando a disparar los dedos, ya alzados para golpear, hacia los

 botones y teclas sobre los cuales su atención parece estar tan clavada comolos ojos del jugador en los dados. Cuando no están en este trance, a menudose sientan en mesas colmadas de tiradas de impresora sobre las que meditancomo posesos estudiosos de un texto cabalístico. Trabajan hasta casi derrum- barse, veinte, treinta horas cada vez. Si así lo han dispuesto, les traen la co-mida: café, refrescos, bocadillos. Si les dejan, duermen en catres cerca delcomputador. Pero sólo unas pocas horas: luego la vuelta a la consola y al pa-

 pel continuo. Sus ropas arrugadas, sus rostros sucios y sin afeitar y su cabellodespeinado, todo ello atestigua que se han olvidado de sus cuerpos y delmundo en que se mueven... Éstos son los desharrapados de los computado-res, los programadores obsesivos15.

14 En inglés, un «hack» es un programa elegante. El término «hacker» se usa tam- bién para el pirata que irrumpe en los archivos informáticos ajenos.

n Weizenbaum, J., Computer Power and Human Reason, pp. 116.

Page 40: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 40/416

44 Inteligencia artificial. Una introducción filosófica

Según la opinión convencional, el computador nunca será capaz, asu vez, de programar. Hacker, de Gerald Sussman, destroza este có-modo mito I6. Hacker es otra habitante del laboratorio de IA del

MIT, y su especialidad es escribir programas para el computador enque opera. Los programas que escribe controlan los movimientos deun brazo de robot simulado que actúa en un entorno de bloquescomo el de Shrdlu.

Es fundamental en la actuación de Hacker su Biblioteca de Técni-cas de Programación, y un almacén de conocimientos sobre la escri-tura de programas. Gran parte de la biblioteca consta de recetas de-talladas para construir programas por secciones. También incluyereglas heurísticas, una selección de las miríadas de trucos y atajos deque está imbuida el alma de la programadora humana. Como curiosi-dad, he aquí un sencillo ejemplo.

(h e c h o   (a r r e g l a r    ( p r e r r e q u i s i t o t m p i d e - f i n   -g e m e l o

Prog lineal línea2 prerreq)(ANTES línea2 lineal)))17 

Esta barrera de símbolos se aplica a situaciones como la del ejem- plo siguiente:

1. Tirar la cáscara.2. Cocer el huevo.

Estas cosas son moneda común y frustrante de la programación:

una línea del programa está «impedida» por algo que se ha hecho enuna línea anterior. La regla de la biblioteca es un consejo para «arre-glar» estas situaciones: intenta invertir el orden de las dos líneas. Sinembargo, como todo programador sabe, este truco no siempre fun-ciona. La programación es un juego de ensayo y error, y Hacker,como sus contrapartidas humanas, generalmente acaba por desperdi-ciar un montón de trabajo en el intento de obtener un programa quefuncione.

Para el programador humano cada programa fracasado es unafuente de información sobre lo que no debe hacer en el futuro. Tam- bién para Hacker. «El rasgo principal de Hacker», escribe Sussman,

16 Sussman, G. J., ibidem.

17 Sussman, G. J., ibídemtp . 7J.

Page 41: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 41/416

Algunas pruebas sorprendentes 45

«es que aprende de la experiencia»1819. Las habilidades de Hacker «me joran con la práctica» í9. Andando el tiempo, Hacker logró engrosarsu Biblioteca de Técnicas de Programación con lo que Sussman des

cribe como una «mezcla profundamente interconectada» de conocimientos sobre programación20. En realidad, la regla sobre intercam bio de líneas la añadió Hacker a su Biblioteca.

Uno de los programas que escribió Hacker permite a su robottransformar la Escena 1 de la figura 2.2 en la Escena 2 21. Echemos un breve vistazo a cómo produjo el programa. Su primer paso es rastrearsu almacén de Programas en busca de algo pertinente para el pro

 blema, o bien un programa que ya haya escrito para una tarea relacionada, o bien uno de los programas básicos colocados en el almacén

 por Sussman. Lo mejor que en este caso puede encontrar es una rutina muy simple llamada PON-SOBRE (suministrada por Sussman).PON-SOBRE permite al robot poner un bloque sobre la mesa o sobreotro bloque. Hacker ve que si el bloque A (fig. 2.2) no tiene nada encima, PON-SOBRE se puede usar para llevar A sobre B. Volviendo a suBiblioteca de Técnicas de Programación, indaga hasta que obtiene un

 programa llamado APILAR. Lo que ha hecho es extender PON-SOBREanteponiéndole un pequeño programa que hace que el robot cojacualesquiera bloques que haya encima del bloque que ha de mover ylos deposite en cualquier lugar excepto encima del bloque B (o encima del bloque deFque proceden). APILAR permite al robot quitar Cde encima de A y luego colocar A encima de B.

Hacker siempre se esfuerza por que sus programas tengan generalidad. Para colocar A encima de B, el robot sólo necesita quitar

C; sin embargo, APILAR contiene uña instrucción general para quitar todo  bloque que esté encima del que hay que mover. AhoraHacker tiene un  programa que, sin modificaciones, permitirá al ro bot llevar A sobre B en el tipo de situación que muestra la Escenatres (fig. 2.2).

Es verdad que Hacker funciona en un contexto muy cuidadosamente ideado, y que sólo puede escribir los programas más simples.

También es verdad que Sussman le suministra generosas ayudas gracias a la información que hay en la Biblioteca de Técnicas de Progra-

18 ibidem, p. 83. (Sussman supone que el Hacker es masculino).19 ibidem, p. 83.20 ibidem, p. 26.21 ibidem, capítulos II y IV.

Page 42: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 42/416

Inteligencia artificial. Una introducción filosófica

Escena1

Escena2

Escena3

FIGURA 2.2. Tareas simples de movimientos de bloques

Page 43: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 43/416

Algunas pruebas sorprendentes 47

mación (en efecto, sería difícil exagerar su liberalidad). No obstante,Sussman nos ofrece una sorprendente muestra de cómo acaso un díalos computadores alcanzarán y tomarán la manzana prohibida. Si se

les dota lo suficiente al comienzo, los computadores son capaces detomar en sus manos su propia programación.

2,6. Programas que juegan

A través de los juegos de ordenador, las técnicas creadas en los la boratorios de IA han empezado a llegar a nuestros hogares. En estasección esbozo tres programas que no están disponibles en el comercio. Uno dejó una señal, pequeña pero significativa, en la historia humana hace unos años, y los otros pueden estar próximos a dejar unamarca más profunda.

 El programa de damas de Samuel

Arthur Samuel escribió su programa a principios de los años cincuenta, cuando trabajaba para IBM. (Después se uniría al equipo deIA de la Universidad de Stanford.) El proyecto de escribir un pro-gráma para jugar a las damas puede no sonar a investigación teóricaimportante, pero el auténtico interés de Samuel estaba en el problemamás hondo de programar un computador para que aprendiera de laexperiencia. En su cauta forma de expresarse, el objetivo era progra

mar «un computador digital para que se comporte de tal manera que,si esa conducta perteneciera a seres humanos o animales, se diría queentraña aprendizaje»22.

Suyo fue el primer programa capaz de mejorar su ejecución con la práctica. «La tasa de aprendizaje», dice Samuel, «fue sorprendentemente alta». Sus rivales humanos pronto admitían que el programaera «mejor que el jugador humano ordinario»23. A Samuel se le ocu

rrió la idea de meter dos copias del programa en el mismo ordenadory dejarlas jugar una contra otra, partida tras partida. La habilidad del

22 Samuel, A. L., «Some Studies in Machine Learning Using the. Game of Checkers», p. 71. Véase también el capítulo 1 nota 26.

23 Samuel, A. L., ibidem„ p. 89.

Page 44: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 44/416

48 Inteligencia artificial. Una introducción filosófica

 programa aumentó continuamente con estas pintorescas partidas que jugaba contra sí mismo (Samuel convenció a la IBM de que usara su programa para comprobar las nuevas máquinas antes de expenderlas,

y así pudo dejar, con la conciencia tranquila, que el programa co-rriera durante largos períodos de tiempo).

Al final, el programa de Samuel llegó a vencer a campeones. Enun torneo que se ha hecho famoso, el computador desarboló a un ju-gador presentado como «uno de los más eminentes del país»24. «Lamáquina... jugó un final perfecto sin un solo desliz», se lamentaba elcampeón derrotado. «Nunca he tenido tal competencia de ningún ser

humano desde 1954, cuando perdí por última vez»25.Sin embargo hay un acontecimiento más espectacular en la carrerade este programa, ocurrido unos años antes y entonces inadvertido.Cierto día olvidado, el programa tuvo que comenzar a derrotar a Sa-muel, y eso, en mi opinión, fue uno de los acontecimientos más nota-

 bles de la historia de la computación.La derrota de Samuel a manos de su propio programa refuta de

una vez por todas la vieja máxima de que un computador no puede

nunca mostrar más inteligencia que la persona que lo programa.También debemos reconsiderar el cómodo adagio de que los compu-tadores sólo pueden hacer lo que les dicen que hagan. En un sentido,desde luego, el dicho es incuestionablemente verdadero: fallos aparte,un computador no puede sino seguir las instrucciones que le handado. Pero en otro sentido más interesante, el dicho es falso. Un pro-grama que aprenda de manera tan consistente a vencer a la personaque lo diseñó está, por definición, haciendo movimientos mejores

que cualquiera de los que esa persona le puede enseñar a hacer. Loque Samuel consiguió fue proporcionar a un computador instruccio-nes que, al final, le permitieron hacer más de lo que él era capaz dedecirle que hiciera.

Puede ser interesante una breve sinopsis del funcionamiento del programa de Samuel. El programa contiene una fórmula para asignarun «tanteo» al estado global del tablero después de cada movimiento.Este tanteo representa la utilidad de la configuración del tablero parael jugador qüe acaba de mover. Lá fórmula se centra en unas cuarentacaracterísticas del estado del juego (por ejemplo, los «huecos»: cua-

24 Samuel, A. L., ibidem, p. 103,25 Samuel, A. L., ibidem, p. 104.

Page 45: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 45/416

Algunas pruebas sorprendentes 49

dros vacíos rodeados por tres o más piezas del mismo color, y las«zanjas»: cadenas de piezas del mismo color que ocupan cuadros ad-yacentes de una diagonal). A cada uno de estos rasgos se le asigna un

número que representa su importancia, llamado número de la impor-tancia del rasgo, NIR. El programa calcula la utilidad de la configura-ción del tablero para un jugador contando el número de huecos quetiene el jugador y multiplicándolo por el NIR de los huecos, e igualcon las zanjas y los demás rasgos de la fórmula. Se suman los totalesde los diversos rasgos y se obtiene un tanteo global, una medida de la

 prudencia de hacer un movimiento que sitúe el tablero en esa confi-guración. Cada vez que le toca mover ^1 programa, calcula los tanteosglobales de los movimientos que podría hacer y elige el que le da elresultado más alto. (En realidad, la actuación del programa se com-

 plica porque «prevé» un cierto número de movimientos, como los ju-gadores humanos, y así puede tener en cuenta los tanteos globales deesos movimientos ulteriores)26.

El procedimiento de aprendizaje del programa es sencillo e inge-nioso. Ajusta los NIR al azar y luego juega unas pocas partidas con-

tra una copia de sí mismo que aún conserva los antiguos NIR. Si a lacopia va mejor, la nueva combinación de NIR produce peores resul-tados que la combinación anterior, y se desecha. Pero si al programale va mejor, ha encontrado una forma de mejorar su juego. Repi-tiendo el procedimiento úna y otra vez, el programa acaba por acer-tar en combinaciones cada vez más atinadas de asignaciones los NIR,y la calidad de su juego mejora progresivamente. El procedimientoconsiste en resumen en que, después de cada perfeccionamiento, el

 programa busca al azar   algo mejor todavía. Sin duda un métodode aprendizaje, pero radicalmente diferente de los que usan los sereshumanos.

 Ajedrez

En una competición muy difundida Gary Kasparov venció, en1989, al campeón mundial de computadores ajedrecistas DeepThought por dos partidas a cero. «La mente vence a la materia» grita-ron los titulares. «Gary Kasparov aplasta a un computador en nom-

26 La previsión máxima es de diez turnos de juego.

Page 46: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 46/416

50 Inteligencia artificial. Una introducción filosófica

 bre de toda la humanidad»27. En 1991, en la Feria CeBIT de Hanno-ver, una versión más desarrollada, el Deep Thought 2, aplastó a uno odos grandes maestros. En un pequeño torneo con siete grandes maes-

tros, Deep Thought consiguió 2,5 puntos sobre 7 posibles28.Un rival difícil para Deep Thought en el último campeonato ame-

ricano de ajedrez para computadores fue Hitech (Deep Thought es lacreación de Hsiung Hsu e Hitech de Hans Berliner, ambos de la Uni-versidad de Carnegie Mellon). Hitech es capaz de examinar 175.000 posiciones por segundo. Berliner señala que «a lo largo de su vidaHitech ha hecho en torneos, con varios buenos jugadores como testi-gos, diez movimientos excelentes que no fueron anticipados por nin-guno de los expertos espectadores»29. A Hitech se le estima en la ac-tualidad un ELO entre 2.400 y 2.500, cuando el de Kasparov pasa de2.700. El ELO de Hitech ha aumentado inexorablemente cada año. Amediados de 1985 el programa estaba por. debajo de 2.100 puntos.A principios de 1986, tras un cambio importante en el hardware, la

 puntuación se había disparado por encima de 2.300.Dado el remonte de estas cifras, los investigadores de la IA con-

fían en el advenimiento de un programa capaz de vencer a todo con-trincante humano. Puede que esta victoria final corresponda a unaversión mejorada de Deep Thought o de Hitech, o quizá la derrotade un campeón mundial deba esperar la evolución de una especie di-ferente de programa. De todas formas, los días de la supremacía hu-mana en el ajedrez están, con toda seguridad, contados30.

Circula un chiste en la IA norteamericana que dice que un infor-mático ruso que estaba de visita oyó hablar de los programas de aje-

drez. «¿Quién les ha dado permiso para hacer esto?», preguntó. Paramí la pregunta del ruso es pertinente, aunque quizá no en el sentidoque él le daba. Escribir un programa que supere a todo el mundo es lameta más alta en informática, pero después todo el mundo tiene quevivir con las consecuencias. Cuando finalmente los computadorestriunfen sobre la mente humana en el tablero de ajedrez se habrá for-

 jado un poderoso símbolo. Se oirán voces de pánico que cuestionaránla actual supremacía del intelecto humano en este planeta, sin duda

27 Sports Illustrated , vol. 71, 30, oct. 1989, p. 97.28 Agradezco a Don Beal esta información.29 Comunicación personal.

30 Una opinión contraria se encuentra en Hubert y Stuart Dreyfus,  M ind Over   Machine, capítulo 4.

Page 47: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 47/416

Algunas pruebas sorprendentes   51

una reacción un poco aberrante, pero la idea difícilmente dejará deavivar las ansiedades e incertidumbres de nuestra sociedad moderna.Se oirán otras voces que explotarán la fuerza de ese símbolo en su

cruzada para informatizar la educación, el gobierno o la guerra. Derepente el ajedrez se ha convertido en mucho más que un juego.

2.7. El Resolutor General de Problemas

El General Problem Solver   (Resolutor General de Problemas) —GPS para abreviar— es uno de los proyectos mejor conocidos ymás antiguos de la IA. La primera versión del GPS funcionó pocodespués de la Conferencia de Dartmouth y se continuó trabajando enel proyecto durante más de una década. El objetivo era construir uncomputador que buscara inteligentemente sus propias soluciones de problemas. El GPS fue hijo intelectual de Newell, Simon y Shaw, losresponsables del Logic Theorist 31.

Versiones posteriores del GPS fueron capaces de resolver una va

riedad impresionante de problemas. He aquí unos pocos ejemplos32.

 El problema de los misioneros y los caníbalesv

Tres misioneros viajan por inhóspitos parajes con tres porteadores nativos. Los porteadores, además de paganos, son caníbales, peroes costumbre de su pueblo no atacar nunca a menos que las víctimas

sean sobrepasadas en número (no se sabe si esto se debe a mera co bardía o a algún curioso tabú). Los misioneros son sombríamenteconscientes de lo que puede ocurrir si se fragmentara la expedición.Al final de la primera semana de viaje el grupo llega a la orilla de unrío ancho y profundo. A pesar de la abundancia de cocodrilos, elgrupo debe seguir avanzando. Uno de los porteadores encuentra unacanoa con dos proas, capaz para dos plazas, volcada en el barro. Unamueca espantosa se extiende por su rostro conforme saborea las im~

31-Gran parte del trabajo con el GPS se llevó a cabo en la Carnegie-Mellon University, aunque, como el Lógico Teórico, el programa fue ejecutado por vez primera en elJO H NN IA C de la RAN D Corporation.

32 Adaptado de Ernst, G. W., y Newell, A., GPS: A Case Study in Generality and   Problem Solvings capítulo VI.

Page 48: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 48/416

52 Inteligencia artificial. Una introducción filosófica

 plicaciones de su hallazgo. Pero afortunadamente uno de los misio-neros hizo un cursillo de informática en Carnegie Mellon y recuerdahaber visto al GPS resolver el mismo problema que ahora afron-

tan. En menos de una hora los seis están a salvo en la orilla opuesta.¿Cómo? (recuerde: un máximo de dos personas en el bote cada vez, ysi los caníbales superan en número a los misioneros en cualquier ori-lla, ocurre una carnicería).

 Medida por medida

Dos irlandeses en una isla desierta se las arreglan para repartirse a partes iguales su último barril de ocho pintas de Guinness sin usarmás que un cazo de tres pintas y otro cazo de cinco pintas. Sin tenersiquiera una corteza de coco. ¿Cómo lo hacen?

F i g u r a  2.3.  La torre de la contrición

 La torre de Hanoi

La torre de la contrición que aparece en la figura 2.3 está consti-tuida por discos planos de piedra y un mástil de madera. Cada díalos devotos del templo trasladan la torre de un mástil al siguiente.Mueven los discos de uno en uno y sólo de mástil a mástil. Está ab-solutamente prohibido poner un disco en el suelo. Además la tradi-ción exige que sean arrojados a los perros del templo los devotos

Page 49: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 49/416

Algunas pruebas sorprendentes   53

que pongan un disco encima de otro más pequeño. ¿Cómo trasladanla torre?

 Deducción

A Benito Torelli, dueño de un casino nocturno, le cortan la gar-ganta cuando se niega a pagar protección. La policía local detiene acinco sospechosos que hacen las siguientes declaraciones:

THEO Yo no maté a Torelli. Nunca uso cuchillos. Navaja lo hizo.KOXANNE  No he eliminado a Torelli. Yo estaba con Mustafá en ese mismo

momento. Wally hizo el trabajo.WALLY Yo no he matado a Torelli. Nunca he estado en un casino. Yo,

un distinguido informático. NAVAJA Soy inocente. Todos esos imbéciles que dicen que yo lo hice

mienten. Tiene que haber sido Roxanne quien se cargó a Torelli.MUSTAFÁ Soy inocente. Nunca antes había visto a Roxanne. Navaja zo

hizo.

Cada uno de los sospechosos dijo dos verdades y una falsedad.¿Cuál de ellos liquidó a Benito?33

 Newell y Simon'describen el GPS como un «programa que si-mula el pensamiento humano»34. Se refieren a qué han ideado el pro-grama para que razone en el problema como lo haría un ser humano.Si se ha molestado usted en resolver el problema de los Misioneros y

los Caníbales, lo más probable es que haya empleado el mismo mé-todo que el GPS, que consiste en construir una sucesión de cruces delrío, uno por uno, retrocediendo cuando las cosas salen mal.

 Newell y Simons extraen una profunda conclusión filosófica deeste rasgo del GPS. Puesto que el GPS se comporta de forma seme-

 jante a los seres humanos (en su limitado dominio), y puesto que elGPS es un programa de computador, se sigue (dicen) que el GPS es

un indicio llamativo en favor de la hipótesis de que «la conducta librede un ser humano pasablemente inteligente se puede entender comoel producto de un conjunto complejo, pero finito y determinado, de

33 Adaptado de Copi, I. M., Introduction to Logic,  segunda edición, p. 18. Ver lanota 13 del capítulo 5.

34 Newell, A. y Simon, H., «GPS, a Program that Simulates Human Thought».

Page 50: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 50/416

54 Inteligencia artificial. Una introducción filosófica

leyes»35. O, dicho con más teatro, somos computadores y nos com- portamos de acuerdo con el conjunto de leyes, finito y determinado,que especifica nuestro programa. Este tema se retoma en los capítu-

los 9 y 10.

 IA humana frente a IA ajena

Hay una importante contraposición entre el GPS, que toma comomodelo los procesos mentales humanos y un programa como el vir-tuoso de las damas de Samuel, que, como ya he mencionado, empleauna técnica de aprendizaje evidentemente distinta de las que usan loshumanos. Cada uno de ellos es el resultado de una manera funda-mentalmente distinta de aproximarse a la IA. Por un lado, se puedetratar de escribir programas que simulen o mimeticen lo que ocurreen la mente humana, IA humana (llamada a menudo «simulacióncognitiva»). Por otro lado, es posible considerarse libre de usar cua-lesquiera técnicas, sin reparar en si tienen o no semejanza con los

 procesos del pensamiento humano. Ésta es la IA ajena.Durante muchos años ha habido en los laboratorios de IA un de- bate destructivo sobre cuál de estos enfoques merece la mayor inver-sión de esfuerzo investigador36. La IA ajena ha ganado en la actuali-dad la mano en la corriente principal de la investigación. (Comodecía recientemente un investigador, «Nos gusta hacerlo como poda-mos» 37.) En mi opinión, esto es lamentable. Puede que la IA ajena seala vía más rápida para tener éxito en las aplicaciones comerciales y

militares, pero el mayor atractivo de la IA para la filosofía reside ensu promesa de ayudar a aclarar cómo opera la mente humana. Turingestaba entusiasmado por esta posibilidad: «Todavía es un misterio el

 proceso del pensamiento, pero creo que el intento de construir unamáquina pensante nos ayudará enormemente a averiguar cómo pen-samos» (como dijo a un incrédulo público británico en una charla ra-diofónica en 1951)38. Afortunadamente hay ahora signos poderosos

35 Newell, A. y Simon, H., «GPS, a Program that Simulates Human Thought», p. 293.

36 La distinción entre IA humana y ajena salió por primera vez a la palestra en laDartmouth Conference, bajo la terminología de «modo teórico» y «modo operativo».

37 Nils Nilsson, citado en Rose, F., In to the Heart o f the Mind, p. 177.38 Can Digital Computers Think?,  BBC Radio, mayo, 1951. (Citado por Hodges,

A., Alan Turing: The Enigma, p, 442.)

Page 51: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 51/416

Algunas pruebas sorprendentes 55

de un renacer del interés por la IA humana, que intenta fabricar redesde neuronas artificiales (véase el capítulo 10).

2.8. Sam y Frump

Entro en una cafetería y pido una taza de café. Según estoyechando la leche, una cucaracha muerta asoma en la jarrita. Mevoy corriendo con el estómago revuelto.  Pregunta: ¿Me bebo el café?

Todo el mundo contestará, sin dudarlo, que no, aunque la historieta no se pronuncia al respecto. Nuestra capacidad para leer entrelíneas representa un papel decisivo en el proceso de entender casicualquier texto. Para que los ordenadores sean capaces de seguir elhabla y la escritura normales en los humanos, también hay que darlesa ellos la capacidad de leer entre líneas. El laboratorio de IA de Yaleha abordado con decisión este problema mediante un programa llamado Sam. (Sam es obra de Cullingford, Riesbeck, Schank y otros.)

En la demostración que sigue se le da a leer a Sam una historieta,

y luego se le pasa una prueba de comprensión39. (Como es habitual,el cuento y las preguntas se teclean en el ordenador y las respuestasde Sam aparecen en la pantalla.)

 El cuento

John fue a Nueva York en autobús. En el autobús le habló a una

anciana dama. Cuando se bajó del autobús dio las gracias al conductor.Tomó el metro para ir a Leone’s. En el metro le robaron la cartera. Seapeó del tren y entró en Leone’s. Comió lasaña. Cuando le llegó lacuenta descubrió que no podía pagar. El encargado le dijo que tendríaque lavar platos. Cuando se fue, tomó un autobús a New Haven.

 La prueba de comprensión

¿Por qué fue John a Nueva York?PORQUE QUERÍA IR A LEON E’S.

39 La historieta y las preguntas son de Schank, R. C. y Abelson, R., Scripts,  Plans, Goals and Understandings pp. 178-80.

Page 52: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 52/416

56 Inteligencia artificial. Una introducción filosófica

¿Cómo llegó John a Leone’s?JOHN TOMÓ EL AUTOBÚS HASTA NUEVA YORK Y LUEGO TOMÓ EL METROHASTA LEÓNE’S.

¿Le ocurrió algo inusual en el autobús? NADA QUE YO RECUERDE.¿Ocurrió algo inusual en el metro?UN LADRÓN LE ROBÓ LA CARTERA A JOHN.¿Qué pidió John?JOHN PIDIÓ LASAÑA.

¿Ocurrió algo inusual en el restaurante?JOHN DESCUBRIÓ QUE NO PODÍA PAGAR LA CUENTA Y, POR TANTO, TUVOQUE LAVAR PLATOS.

¿Por qué no pudo John pagar la cuenta?PORQUE JOHN NO TENÍA DINERO.¿Por qué no tenía John dinero?PORQUE UN LADRÓN LE ROBÓ LA CARTERA A JOHN.¿Cómo volvió John a New Haven?JOHN SE FUE DESDE LEONE’S EN METRO Y LUEGO FUE A NEW HAVEN ENAUTOBÚS.¿Cómo pudo tomar John el autobús a New Haven?

PROBABLEMENTE JOHN TENÍA UN BILLETE.

Obsérvese con qué sutileza Sam ha colegido información implí-cita en el cuento. Por ejemplo, Sam ha inferido que John  pidió   la la-saña que comió, y que tener que fregar platos fue una consecuencia deno poder pagar la cuenta. Sam se las arregla para conjeturar que la ra-zón de John para viajar a Nueva York era visitar Leone's, no simple-mente tomar lasaña (ni que le quitaran la cartera ni que le hicieran la-

var platos). En sus respuestas a las dos últimas preguntas, Sam semuestra capaz de hacer hipótesis razonables que van más allá de loque en realidad dice el cuento. De paso, Sam puede traducir la narra-ción al chino.

Sam tiene en Yale un programa emparentado, Frump (programarápido de comprensión y recuerdo de lecturas; DeJong, Schank yotros). Frump está conectada al servicio por cable de la United PressInternational y produce resúmenes de noticias según le llegan. Heaquí un ejemplo del trabajo de Frump (la narración es resumida eninglés, español y ruso)40.

40 DeJong, G., «Skimming Newspaper Stories by Computer», p. 16.

Page 53: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 53/416

 Narración de UPI 

Algunas pruebas sorprendentes 57

Pisa, Italia, Hoy los funcionarios han buscado la caja negra de un

avión de transporte de la fuerza aérea italiana para determinar porqué la aeronave se estrelló contra una m ontaña, con el resu ltado de 44

 personas muertas. D icen que la atm ósfera estaba clara y en calma,salvo por algunos bancos de niebla al nivel del suelo, cuando el avión

de transporte Hércules C130, de construcción estadounidense, chocó

contra el monte Serra momentos después de despegar el pasado jue-ves. El piloto, calificado como uno de los más experimentados del

 país, no informó de ninguna dificultad durante una breve conversa-

ción por radio anterior al accidente.

 Resúmenes

 Hubo un acódente de avion en Italia que resultó en 44 muertos *44 people were killed when an airplane crashed into a mountain in Italy.V aviatsionnoi katastrofe v Italii 44 chelovek bylo ubito.

Estos impresionantes resultados se consiguen por medio de un re-curso de programación llamado un  guión  (. script ) («Sam» es abrevia-tura de Script Applier Mechanism —mecanismo para la aplicación deguiones—). Un guión es una descripción detallada de un episodio es-tereotipado que se desarrolla eñ el tiempo*41. Al procesar la narraciónsobre el viaje de John a Nueva York, Sam usa su guión del restau-rante, su guión del autobús y su guión del metro. El guión del restau-

rante contiene varias «calles» diferentes: la calle de la cafetería, la calledel autoservicio, la calle del bistró francés, etc. Cada una es una listadetallada de los acontecimientos que ocurren típicamente durante lasvisitas a restaurantes del tipo en cuestión. Las calles se subdividen enescenas; por ejemplo, entrar, pedir, comer y salir. Las escenas puedencontener rutas alternativas. Así, la escena de entrar puede tener unaruta principal para el caso de que haya una mesa libre y una ruta al-ternativa si hay que esperar.

Sam es capaz de leer entre líneas narraciones sobre episodios«guionizables» precisamente porque sus guiones le dicen  todo lo que

* En español en el original.41 Para una exposición com pleta, véanse Schank, R. C. y Abelson, R., Scripts,

 Plans, Goals and Understanding , especialmente el capítulo 3.

Page 54: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 54/416

58 Inteligencia artificial. Una introducción filosófica

ocurrirá normalmente entre líneas. Usando el guión, el programa

 puede llenar los detalles que faltan en la narración. Por ejemplo, su

 pongamos que a Sam se le da la siguiente narración:

John fue a un restaurante. Pidió a la camarera coq au vin. Dejó una generosa

 propina.

El guión le permite al programa expandir la narración en algo

como:

John fue a un restaurante francés. Se sentó a una mesa. Leyó la carta. En

cargó coq an vin  a la camarera. Se comió el coq au vin. Dejó una generosa propina. Pagó la cuenta. Salió del restaurante42.

En realidad, la expansión del texto que construye Sam es aún más

detallada. Usando la expansión, Sam es capaz de contestar preguntas

como: «¿A qué clase de restaurante fue John?» y «¿Pagó John la

cuenta?».

Si se le pregunta «¿Por qué dejó John una propina generosa?»,

Sam responderá: «Probablemente a John le gustó la comida.» Para

hacer esta inferencia, Sam contrasta la sección suplementaria de datos

de su guión del restaurante, donde encuentra la información de que si

un cliente deja una gran propina, entonces probablemente el cliente

disfrutó de la comida.

El guión permite a Sam detectar cualesquiera sucesos de la narra

ción que no se adapten al curso normal de los acontecimientos. Según

el guión, la entrega de la cuenta va seguida del pago por parte delcliente, así que, cuando John no paga su lasaña, para Sam suena una

alarma. Sam va a una lista de precondiciones almacenada en el guión y

descubre que una condición para que John pague la cuenta es que

tenga dinero. Ahora bien, Sam ha advertido que John probablemente

no tenga dinero, puesto que el guión del metro dice que ésta es una

consecuencia normal de que te roben la cartera. Así, Sam enriquece

su expansión de la historieta con la entrada «John no puede pagar la

cuenta porque no tiene dinero».Programas como Sam y Frump hacen fácil prever lo que un fu

turo relativamente próximo puede traer: ordenadores personales que

 puedan recibir órdenes y preguntas tales como:

42 Op. cit., pp. 47-8; y Schank, R., The Cognitive Computer , p. 122.

Page 55: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 55/416

Algunas pruebas sorprendentes 59

Paga a Visa y a la compañía del gas.¿Has pagado ya la cuenta del teléfono?¿Qué hay del recibo de la luz?43.

Un sistema semejante a Sam supone que a la compañía del gas hay

que pagarle una cantidad igual a la del recibo, y que los pagos de los

recibos de teléfono pasados están fuera de cuestión. El sistema es tan

flexible como Sam para los detalles y los modismos lingüísticos, y ad

mite que se escriba

Suéltale la mosca a la maldita compañía eléctrica.

Peor recibidos serán los sistemas como Frump que secretamenteregistren todos los telegramas, télex y correo electrónico, informandode cualesquiera actividades que contravengan «el interés nacional»,

expresión cuya interpretación detallada fijan miembros no electos de

la Administración y en gran medida inidentificables en el interior del

Pentágono y el Cuartel General del Alto Mando. O sistemas que hu

roneen bancos de datos públicos y privados por encargo de burócra

tas sin nombre, cruzando archivos compilados por Hacienda, instituciones financieras, hospitales, patronos, la policía, las líneas aéreas,

compañías de alquiler de automóviles, compañías telefónicas, etc. No

es sino demasiado imaginable que el entrometido programa haga uso

de un guión relativo a las conexiones entre actividades para forjar un

cuadro completo del «sospechoso». El informe generado por el pro

grama, con interpolaciones espurias y todo, residirá en un banco de

datos, abierto a la curiosidad de otros fisgones electrónicos.Está claro que la IA puede derramar muy ambiguas bendiciones.

2.9. Sistemas expertos

Un sistema experto es un programa dedicado a resolver proble

mas y dar consejo dentro de un área especializada de conocimientos,

como el diagnóstico médico, el diseño de automóviles o la prospección geológica. Un buen sistema puede rivalizar con especialistas

humanos en esa área. Los sistemas expertos son el nuevo «Eldo

rado» de la IA, y han surgido bandadas de nuevas empresas de pro-

43 Basado en Schank, R., The Cognitive Computer , p. 111.

Page 56: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 56/416

60 Inteligencia artificial. Una introducción filosófica

gramación para explotar este lucrativo filón de la tecnología infor-mática. El negocio de los sistemas expertos ha traído al mundo in-cluso una nueva profesión: la ingeniería del conocimiento. Los inge-

nieros del conocimiento pasan meses observando y entrevistando alos expertos humanos de un área determinada. Pacientemente catalo-gan los hechos y reglas que los expertos usan en la formación de sus

 juicios y decisiones. Una vez que esta gran masa de conocimientoestá organizada y formalizada, se coloca en la «base de conocimien-tos» del programa.

De un famoso sistema, Derídral, especializado en análisis quími-cos, se ha llegado a decir que tiene «tanta capacidad de razonamientoen química como la mayoría de los estudiantes licenciados y algunosdoctores en la materia»44. Los sistemas expertos actúan como consul-tores en áreas tan diversas como la gestión financiera, la planificacióneconómica de empresas, la prospección petrolífera y minera, la inge-niería genética, la manufactura de vehículos y el diseño de instalacio-nes informáticas. Un área de especial significación es la medicina. Seestán investigando programas para diagnosticar la enfermedad y re-

comendar tratamientos. Dos de los proyectos más importantes sonMycin, un programa especializado en el tratamiento de las infec-ciones bacterianas de la sangre, escrito por Edward Shortliffe, yCentaur, especialista en disfunciones pulmonares, creación de TaniceAikins45.

Mycin intenta identificar el organismo causante de la infección a partir de informaciones relativas a los síntomas del paciente y al re-sultado de pruebas practicadas. Conforme procede a la «consulta»,

Mycin buscará más información, haciendo preguntas como «¿ha su-frido el paciente quemaduras en los últimos tiempos?» y «¿tiene el

 paciente alguna alergia a la Colistina?», A veces el programa proponerealizar alguna prueba de laboratorio. Una vez que se ha hecho eldiagnóstico y se conocen las alergias y otros detalles del paciente,Mycin recomienda una medicación. Si se le pide, Mycin explica el ra-zonamiento que le llevó al diagnóstico.

La mayoría de los sistemas expertos almacenan su conocimientoen forma de reglas de inferencia: si esto, entonces aquello; si aquello,

44 Simons, G., Are Computers Alivef, p. 66.45 Un centauro tiene la inteligencia de un hombre y la fuerza y ía agilidad de un ca-

 ballo, mientras que «mycin» es en inglés «micina», un sufijo que se encuentra por locomún en los nombres genéricos de los antibióticos (como en «estreptomicina»).

Page 57: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 57/416

Algunas pruebas sorprendentes 61

entonces lo otro (estas reglas se conocen como «producciones»). Heaquí dos ejemplos de la base de conocimiento de Mycin46.

Una regla de diagnósticoSI 1 el lugar del cultivo es sangre, y

2 el tipo de organismo es gram negativo, y3 la morfología del organismo es bastón, y4 el paciente ha sufrido serías quemaduras

ENTONCES hay indicios (0,4) de que el organismo sea una pseudomona. El 0,4 es un factor de probabilidad', que indica el grado en que los datos sus-tentan la conclusión.

Una regla terapéuticaSI el organismo es una pseudomonaENTONCES la terapia se habrá de seleccionar de entre las drogas si

guientes:1 Colistina (0,98)2 Polimixina (0,96)3 Gentamicina (0,96)

4 Carbenicilina (0,65)5 Sulfisoxazol (0,64) Los números deámales representan la probabilidad estadística de que el me-dicamento detenga el progreso de las pseudomonas.

El programa hace la elección final del medicamento después de buscar las contraindicaciones.

Mycin contiene más de 500 reglas semejantes (el número se incre

menta periódicamente). Su compleja interacción permite alcanzarunas prestaciones de gran calidad. Las evaluaciones indican que el programa opera con el mismo rango de competencia que los especialistas humanos en infecciones de la sangre, y bastante mejor que losmédicos generales47.

La salida del programa Centaur de Janice Aikins tiene el soniquete de los consultores electrónicos de la nave Enterprise:

Paciente núm ero 7446 Diagnóstico: grave enfermedad obstructiva de las vías respiratorias de tipo as

mático.Se ha averiguado lo siguiente.

46 Shortliffe, E., Computer-Based Medical Consultations: M YC IN , pp. 52, 142-3.47 Jackson, P., Introduction to Expert Systems, p. 106,

Page 58: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 58/416

62 Inteligencia artificial. Una introducción filosófica

Gran volumen pulmonar indica sobredilatación.La tasa VR/CPT se ha incrementado, lo que indica un grado serio de retención de aire.

El flujo expira torio bajo-medio es compatible con grave obstrucción de lasvías espiratorias.La obstrucción es indicada por la curvatura del bucle de volumen del flujo,que tiene un grado grave.Conclusiones,Fumar probablemente incrementa la gravedad de la obstrucción de las víasrespiratorias del paciente.Dejar de fumar debería ayudar a aliviar los síntomas.La buena respuesta a los broncodilatadores es compatible con la condiciónasmática, y está indicado su uso continuado.Consulta finalizada48.

Sin embargo, es importante darse cuenta de que el suave y com petente estilo de un sistema experto es, en muchos sentidos, unafarsa. Los sistemas expertos no son superinteligencias benévolas. Nison sustitutos adecuados de una sabia cabeza humana. Los sistemasexpertos actuales no son mucho más que manuales automáticos dereferencia, y no tienen mayor comprensión de para qué sirven, o cuáles son sus límites de aplicación que un manual ordinario. Evidentemente, es importante que quienes trabajan con ellos se den perfectacuenta de esto. Pero ¿cómo se van a defender estas personas del«efecto Eliza»? ¿Se las advertirá siquiera de su existencia? Recordemos las agoreras palabras de Weizenbaum: «De lo que yo no me ha

 bía percatado es de que exposiciones extremadamente breves a un

 programa de computador relativamente simple pueden inducir unasideas gravemente ilusorias en personas perfectamente normales.»Weizenbaum no es el único gran pope de la IA que ha expresado

 preocupación. Ésta es una advertencia de Terry Winograd, creadorde Shrdlu:

Hay un peligro inherente a la etiqueta «sistema experto». Cuando hablamosde un experto humano designamos a alguien cuya profundidad de compren

sión no sólo le sirve para resolver un problema específico bien formulado,sino para ponerlo en un contexto más amplio. Distinguimos entre expertos eidiotas informados. Llamar experto a un programa es equívoco... La mistifi

48 Versión corregida de una salida que aparece en Aitk ins, J. S., «PrototypicalKnowledge for Expert Systems», pp. 173-6.

Page 59: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 59/416

Algunas pruebas sorprendentes 63

cación puede ser útil para quienes intentan conseguir fondos de investigacióno vender esos programas, pero puede inducir expectativas inadecuadas enquienes intenten usarlos49.

Sólo podemos esperar que los ejecutivos y funcionarios que su-

 pervisen la integración de esta peculiar raza de expertos en nuestra

sociedad no ignoren ni desprecien los peligros inherentes a esta nueva

tecnología.

49 Winograd, T., y Flores, F., Understanding Computers and Cognition, p. 132.

Para una valoración escéptica del mérito de los sistemas expertos, véanse Dreyfus, H.

y Dreyfus, S., Mind Over Machine.

Page 60: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 60/416

Capítulo 3

¿PUEDE PENSAR UNA MÁQUINA?

Una mirada distraída a los logros mostrados en el capítulo 2

 puede dar a entender que ya hay computadores pensantes. En reali-

dad, esto está lejos de ser cierto. Ni Shrdlu, ni Parry, ni Eliza, ni

ninguno de sus congéneres puede pensar ni entender. Sin duda, son

 programas asombrosos, pero considerémoslos más atentamente y

veremos que sus espléndidas prestaciones son en su mayor parte si-

mulacros. En muchos aspectos estos programas son poco más quetrucos de magia. La sección 3.3 pone en evidencia a Parry y a Eliza,

y la sección 5.2 del capítulo 5 contempla con severidad a Shrdlu y

al GPS.

Las atribuciones de una mente a las máquinas actuales son pura

metáfora. Decir que el computador ajedrecista piensa que le estoy

atacando su torre de rey es una manera cómoda de expresarse, y cier-

tamente se deja pronunciar mejor que otras alternativas más literales.

Pero esta manera de hablar se parece, poco más o menos, a decir quemi coche decidió estropearse en el peor momento posible. Lo intere-

sante, sin embargo, es si este estado de cosas cambiará cuando se de-sarrolle más la tecnología de los computadores. ¿Podremos aplicar

términos psicológicos a los ordenadores en el mismo sentido pleno

en que nos los aplicamos mutuamente, o es por fuerza metafórica la

64

Page 61: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 61/416

¿Puede pensar una máquina? 65

aplicación de estos términos a los computadores? ¿Puede, literal-mente, pensar un computador? Ésta es la cuestión central de la filo-sofía de la IA;

En este capítulo argumento que no hay nada erróneo en aplicar eltérmino pensar   en su sentido pleno y literal a un artefacto del tipoadecuado. Y debo insistir en que éste es un asunto —por entero— fi-losófico, no tecnológico. Puede que los técnicos nunca lleguen aconstruir máquinas que piensen, pero eso es independiente de que podamos decidir la cuestión de si es o no un error conceptual decirque un artefacto podría, en sentido literal, pensar.

3.1. ¿Es por fuerza consciente el pensamiento?

Es un supuesto harto común que sólo los seres conscientes pue-den pensar, y como muchas personas creen obvio que un cacharro de

 plástico y metal nunca podría ser consciente, se burlan de la idea deque un computador pueda pensar. En realidad no es obvio, ni mucho

menos, que un artefacto no pueda ser consciente, como veremos en elcapítulo 8. No obstante, en esta sección deseo intentar convencerlesde que es falso el primero  de estos supuestos. El pensamiento y laconciencia no siempre van cogidos del brazo. Darse cuenta de estotiene un efecto liberador en la discusión de si un computador puede

 pensar.

F i g u r a  3.1. ¿ Puede usted leer esto? (Tomado de la figura 15 de Hofstadter} D. Gódely Escher> Bach: An Eternal Golden Braid.,)

Hubo una conmoción cuando, hacia el cambio de siglo, Freud de-fendió que no nos percatamos de muchas de las cosas que tienen lu-gar en nuestras mentes. Hoy día, sin embargo, es casi un lugar comúnentre los psicólogos —acepten o no otras tesis freudianas— que no

Page 62: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 62/416

66 Inteligencia artificial. Una introducción filosófica

nos damos cuenta consciente de todos nuestros procesos mentales, yni siquiera de la mayoría de ellos. Karl Lashley, un adelantado del estudio del cerebro, describía un experimento sencillo que ilustra esto h

Silbe unas pocas notas de una melodía que conozca e inmediatamentedespués trate de silbarlas hacia atrás, o en una clave más alta. Hallaráque lo puede hacer con facilidad. Pero,  ¿cómo lo hace? Su mente estáhaciendo algo de lo que usted no tiene noticia, y como resultado deese proceso mental es capaz de producir las notas en orden inverso (oen un tono sistemáticamente más alto). Si silbar no es lo suyo, experimente con la figura 3.1. Al principio el patrón le parecerá confuso,

 pero si mira un rato su mente acabará por advertir de pronto un par

de palabras. (No desespere; a mí me llevó casi diez minutos.) Mientras miramos esas formas, quizá con progresiva frustración, la mentedespliega una batería de procesos sin duda bastante complejos, de loscuales, en su mayoría al menos, no nos percatamos conscientemente.Sólo somos conscientes del resultado  de estos procesos, del bruscocambio de la percepción. (N o  ha tenido usted nunca la experiencia deluchar con un problema intelectual antes de irse a dormir y luegodespertarse con la solución? (Se dice que el poeta francés Saint-Pol-Roux antes de ir a dormir solía colgar un cartel en la puerta de sudormitorio donde decía: poeta trabajando12.) Quien resuelve problemas dormido piensa en el problema, pero, desde luego, no conscientemente.

Hablar es otro ejemplo de intenso trabajo mental del que no somos conscientes3. A veces reúno conscientemente las palabras antesde hablar, pero más a menudo hallo que digo lo que quiero decir, sin

elegir conscientemente mis palabras. Estoy seguro de que lo mismole ocurre a usted. (En realidad es bastante infrecuente que las personas planeen conscientemente ni siquiera el contenido.de las frases cotidianas, por no hablar de las estructuras verbales que expresan estecontenido.) Pasando de la expresión a fa comprensión, miconocimiento de los significados de las oraciones de otra personaviene de ordinario en bloque, por así decir, a mi conciencia. No soyconsciente de los procesos mentales por medio de los cuales obtengo

1 Beach, F. A., Hebb, D. O,, Morgan, C. T. y Nissen, H,. W. (comps.), The Neu-

ropsychology o f Lashley, p. XIX.1 André Breton, First Surrealist Manifesto .3 Para un estudio detallado de este tema, véase Jackendoff, R., Consciousness and  

the Computational Mind , esp. cap. 6.

Page 63: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 63/416

¿Puede pensar una máquina? 67

de los sonidos (o formas) el significado, sino sólo del producto finalde estos procesos.

Además de ejemplos informales como éstos, hay experimentos de

laboratorio que ilustran a las claras que está lejos de ser verdad queseamos conscientes de todos los procesos mentales que ejecutamos.Esbozaré dos de ellos.

Visión ciega

La visión ciega fue descubierta y nombrada por Larry Weiskrantzy sus colaboradores a principios de los años setenta4. Personas a lasque se les ha extirpado una parte de la corteza visual del cerebro (porejemplo, durante una operación para extirpar un tumor) a menudoinforman de la pérdida de parte de su campo visual. Si se mueve unalucecita delante de una de estas personas, informará de que no la veen regiones en las que había sido visible antes de la operación. Weis-krantz y sus colegas sentaron a un paciente extremadamente coopera-

tivo frente a una pantalla colocada de modo que se pudiera proyectary mover un punto luminoso en el área ciega recién ocasionada al pa-ciente. Después de cada movimiento se le pedía que alargara la manoy tocara el punto de la pantalla. Puesto que no podía ver el punto (oeso creía), pensaba7que sólo estaba adivinando. Weiskrantz informóde que el paciente se «quedó sorprendido» cuando se le reveló que suactuación había sido en extremo precisa durante las varias horas de

 pruebas5. La percepción, pues, no tiene por qué ser una actividad

consciente. Es más, no parece inadecuado decir que el paciente cono-cía la posición del punto, aunque no conscientemente, e incluso cons-cientemente creyera que no tenía ni idea de dónde estaba el punto.

Weiskrantz especula que el fenómeno de la visión ciega se puedeatribuir a la existencia de un sistema visual por lo general redundante,utilizado en un periodo anterior de la historia evolutiva del cerebro(el sistema visual primario, como él lo llama).

4 Weiskrantz, L., Warrington, E. K., Sanders., M. D. y Marshall, J., «Visual Capa-city in the Hemianopic Field Following a Restricted Occipital Ablation»; Weiskrantz, Blindsight.

5 Weiskrantz, L., «Trying to Bridge Some Neuropsychological Gaps Between

Monkey and Man».

Page 64: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 64/416

68 Inteligencia artificial. Una introducción filosófica

 El experimento de Lackner y Garrett 

Este^ experimento está basado en una versión de lo que se llama

«el efecto fiesta», fenómeno que sin duda usted habrá experiméntado.Cuando estamos rodeados por varias conversaciones es posible enfo-car la atención en una de ellas y mantenerse más o menos al margende las demás. Los sujetos del experimento llevaban auriculares queemitían conjuntos distintos de oraciones en cada oído6. Se les decíaque escucharan sólo uno de los canales y produjeran una paráfrasisde cada oración que oyeran. Una cierta proporción de las oracionesdel canal escuchado eran ambiguas. Por ejemplo:

a) Las visitas pueden ser muy aburridas. b) El detective a cargo del caso tenía poca vista.c) Juan se fue con el perro que encontró el sábado pasado.

A veces el canal desatendido ofrecía simultáneamente una oracióncuyo significado eliminaba la ambigüedad de la oración escuchada.

Así, a) venía acompañada de la oración «odio que me visiten con fre-cuencia» y b) de la oración «el detective llevaba gafas». Otras oracio-nes ambiguas venían acompañadas, en el canal no atendido, de ora-ciones sin capacidad para desambiguar. Así, c) venía acompañada dealguna oración indiferente, como «Shropshire está en Inglaterra».Después del experimento los sujetos no sabían decir gran cosa de loque llegaba por el canal no atendido. Unos sólo eran capaces de decirque habían oído una voz humana, mientras otros reconocían palabras,

 pero no sabían decir si formaban o no oraciones. A pesar de esto,cuando los sujetos parafraseaban las oraciones ambiguas, por lo co-mún elegían el significado indicado por la oración desambiguadora sila había (cuando no la había, el grupo se dividía al elegir entre uno delos posibles significados). Se debe concluir que aunque los sujetos nisiquiera eran conscientes de oír las oraciones desambiguadoras, a unnivel inconsciente habían procesado en el nivel acústico el conjuntono atendido y habían logrado al menos una comprensión parcial delas oraciones que contenía.

Estoy seguro de que algunos lectores están ahora impacientes porseñalar que todos estos ejemplos son casos en los que podríamos decir 

6 Lackner, J. R. y Garrett, M. F., «Resolving Ambiguity: Effects of Biasing Con-tent in the Unattended Ear».

Page 65: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 65/416

¿Puede pensar una máquina? 69

que las personas hicieron algo sin pensar en ello. Esto es cierto, pues elidioma permite decirlo. Si alguien sale con una agudeza sin haberla en-sayado, se puede decir, en lenguaje ordinario, que ha hecho algo sin

 pensarlo, o que ha hecho algo sin pensarlo conscientemente, o que hahecho algo sin comprometer su atención consciente. La pregunta interesante no es qué podemos decir de manera informal, sino si hay razones para preferir la primera de estas locuciones en lugar de la últimacuando tratamos de expresarnos de forma precisa y filosóficamente

 pertinente. En mi opinión no hay ninguna. En efecto, quien sostengaque las expresiones pensar  y pensar conscientemente  tienen el mismovalor está confundiendo pensar y darse cuenta de que se piensa.

Sin embargo, si alguien pusiera empeño en que  pensar   se debeemplear con el significado de pensar conscientemente ymi reacción sería seguir la línea de menor resistencia y aceptar este uso al discutircon él sobre este tema.- No hay nada más absurdo que disputar porlas palabras. La pregunta sustancial se puede reformular sin usar enabsoluto el verbo  pensar . Hemos visto que se pueden realizar noconscientemente muchas importantes actividades mentales humanas,

tales como entender el habla y percibir el mundo exterior. La pregunta fundamental es si se podría decir que, literalmente, un artefactorealiza estas (y otras) actividades cognitivas, y, puesto que podemosrealizar estas actividades no conscientemente, la pregunta se puedeexaminar sin considerar si un artefacto puede o no ser consciente.

3*2. La prueba de Turing

En su artículo «Computing Machinery and Intelligence», tan ricoen ideas, Alan Turing describe un experimento de laboratorio que,afirmaba, se podría usar para decidir la cuestión de si un computadordado es capaz de pensar7. Su experimento se ha venido a conocercomo prueba de Turing. La prueba de Turing siempre ha sido asuntode controversia en círculos filosóficos, aunque los investigadores dela IA se inclinan por lo general a aceptar su validez.

La prueba involucra a dos humanos y al ordenador investigado(véase la figura 3.2). La idea básica de la prueba es que uno de los humanos, el que interroga, debe intentar averiguar cuál de los otros dos

7 Todas las alusiones a opiniones de Turing en este capítulo se refieren a este artículo.

Page 66: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 66/416

70 Inteligencia artificial. Una introducción filosófica

 participantes es el computador. La mujer que interroga conversa conel computador y el otro humano mediante un teclado y una pantalla.Aparte de esto, no hay ningún otro contacto entre los tres participan-

tes. Basándose en las conversaciones que tiene con los otros dos par-ticipantes, la interrogadora debe averiguar cuál es la máquina. Se le

 permite hacer preguntas tan agudas o amplias como desee, y al compu-tador se le permite hacer todo lo posible para forzar una identifica-ción errónea. Así, para el computador serían jugadas astutas decir«no» en respuesta a «¿eres un computador?», y hacer una larga pausay dar una respuesta errónea si se le pide multiplicar números grandes.(El participante humano debe responder con la verdad a las pregun-tas de la interrogadora8.)

He aquí un ejemplo de Turing del tipo de comunicación que po-dría haber entre la interrogadora y un computador que eluda triun-fantemente la identificación.

INTERROGADORA El primer verso de tu soneto dice «Me recuerdas un díade verano»: ¿No queda mejor «un día de primavera»?

COMPUTADOR  FALLALA MEDIDA.

INTERROGADORA ¿Qué tal «un día de invierno»? La medida es correcta.COMPUTADOR  Sí, PERO NADIE QUIERE SER COMPARADO A UN DÍA DE IN-

VIERNO.

INTERROGADORA ¿Dirías que Mr. Pickwick te recuerda el día de Navidad?COMPUTADOR EN CIERTO MODO.

INTERROGADORA Sin embargo, la Navidad es un día de invierno, y no creoque a Mr. Pickwick le molestara la comparación.

COMPUTADOR   NO HABLAS EN SERIO. UN DÍA DE IN VIERNO ES UN DÍA

TÍPICO DE INVIERNO, NO UN DÍA ESPECIAL COMO LA NAVIDAD.

El experimento se repite varias veces con diversas personas en las posiciones de los humanos, y si el número de identificaciones acerta-das del computador no es significativamente mayor que la «frecuen-cia del azar» del 50 por 100, se concluye que el computador puede

 pensar. Al fin y al cabo —como podría decir un defensor de la

 prueba—, si los árboles pudieran conversar con nosotros con tantamaña como en algunos cuentos de hadas, ¿no diríamos sin dudarlo

8 Esta formulación es algo más fuerte que la original de Turing. Dice (p, 434): «Elobjeto del juego para la tercera jugadora es ayudar al interrogador. Su mejor estrategiaes, probablemente, dar respuestas correctas.»

Page 67: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 67/416

¿Puede pensar una máquina? 71

F i g u r a  3.2.  La prueba de Turing

que los árboles pueden pensar? En efecto, regatearles la descripción

«ser pensante» a los computadores que hayan pasado la prueba deTuring, ¿no sería una forma de reservar   la palabra «pensamiento» para los humanos y nuestros parientes biológicos, estableciendo un prejuicio manifiesto contra los seres basados en el silicio en vez de en

el carbono?La idea de que la capacidad de usar el lenguaje es el signo distin-

tivo de los seres pensantes tiene una larga historia. Ironías del des-

tino, fue Descartes, filósofo francés del siglo XVII, quien propuso la

conversación como un medio seguro de distinguir cualquier má-

Page 68: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 68/416

72 Inteligencia artificial. Una introducción filosófica

quina, aun la más ingeniosa, de un auténtico ser pensante. No es, de-cía, «concebible que tal máquina produzca diferentes ordenamientosde palabras para dar una respuesta significativa apropiada a cualquier

cosa que se diga en su presencia, como hacen los más romos de loshombres»910.

3.3. ¿Se ha superado ya la prueba?

Una vez se sometió inadvertidamente a la Eliza de Weizenbaum auna variante de la prueba de Turing í0. Es una práctica común que

 personas que están en habitaciones o edificios distintos usen termina-les de ordenador para dejarse mensajes. Un ejecutivo intentó contac-tar con uno de los programadores de esta manera y sin darse cuentade que, en vez del programador, tenía al otro lado a Eliza.

EJECUTIVO ¿Crees que puedo hacer uso del computador esta mañana?ELIZA POR QUÉ LO PREGUNTAS

EJECUTIVO Puede que haga algunas ventas más de Telcomp.ELIZA POR QUÉ NO ESTÁS SEGUROEJECUTIVO Mis clientes potenciales nunca han visto una demostración del

sistema.ELIZA SIGNIFICA ESO MUCHO PARA TI

EJECUTIVO Claro que sí.ELIZA PARECES MUY SEGURO DE ESO

EJECUTIVO Esto es ridículo.ELIZA A QUÉ TE REFIERES CO N QUE ESTO ES RIDICULO

EJECUTIVO ¿Hay alguna razón para que no pueda usar el computadorahora?ELIZA SIGUE HABLÁNDOME SOBRE TUS CUENTES POTENCIALES

En este momento, sigue la historia, el iracundo ejecutivo telefo-neó al inocente programador.

EJECUTIVO ¿Por qué diablos has sido t a n a s q u e r o s o conmigo?

PROGRAMADOR ¿A qué te refieres con que he sido asqueroso contigo?

9 The Philosophical Writings of Descartes,  vol. 1, traducido por Cottingham, J.,Stoothoff, R, y M urdoch, D., p. 140.

10 Descrito por Daniel Bobrow en «A Turing Test Passed».

Page 69: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 69/416

¿Puede pensar una máquina? 73

Algunas personas han sostenido, sobre la base de este diálogo,que Eliza ha superado la prueba de Turing 11. Sin embargo, es unerror decir que Eliza ha pasado la prueba, aunque el ejecutivo tomó a

Eliza por un ser humano. Para empezar, el procedimiento no fue re petido por varios interrogadores diferentes. Y, lo que es más importante, no se cumplieron las especificaciones de la prueba de Turing.El ejecutivo no estaba intentando distinguir entre un computador yun humano. Simplemente supuso que estaba conversando con un serhumano, y nunca se le ocurrió comprobar esta suposición haciendo

 preguntas de sondeo. Además se violaron las especificaciones dela prueba de Turing porque había dos participantes en vez de tres.

Puede que usted se haya preguntado por qué se incluye en la pruebaal otro participante humano. ¿Por qué no se pide simplemente a losinterrogadores que decidan si están conversando con un computadoro con un ser humano? La razón es que contrastar el computador conun fondo humano tiene el efecto de endurecer la prueba. Un pequeñorasgo de la actuación del ordenador, que acaso pasaría inadvertido

 para el interrogador en una situación no competitiva, podría ser unindicio decisivo en una competición. Además, en una situación nocompetitiva, los interrogadores podrían padecer un sesgo que les hiciera equivocarse debido a factores tales como unas expectativas po bres sobre la capacidad de conversación de un computador.

Creo que la siguiente charla da fundamento a un pesimismo totalsobre las posibilidades de Eliza de superar alguna vez la prueba deTuring. Eliza comienza1112.

CÓMO ESTÁS. POR FAVOR, EXPÓN TU PROBLEMAMe preguntaba si los computadores pueden pensar.POR QUÉ MENCIONAS LOS COMPUTADORES

Puesto que tú eres uno de ellos he pensado preguntarte: ¿puedes pensar?PENSABAS QUE ELLOS PODRÍAN N O SER UNO DEL QUE TÚ PENSABAS PREGUN

TARME, PUEDO PENSAR 

Hablemos acerca de ti, no de mí: ¿puedes pensar?TE GUSTA PENSAR QUE YO, NO TÚ, NO ES CIERTO

¿Perdón?QUÉ TE SUGIERE ESO

¿Qué te sugiere a ti?HÁBLAME SOBRE LO QUE TE SUGIERE A MÍ.

11 Por ejemplo, Christopher Longuet-Higgins en «To Mind via Semantics», p. 92.12 Ésta es una conversación que tuve con EKza versión 4.3.

Page 70: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 70/416

74 Inteligencia artificial. Una introducción filosófica

Esto es absurdo. A qué te refieres con mí.POR QU É PIENSAS QUE YO ME REFIERO C ON TI

La pregunta se refiere a cuál de nosotros alude la palabra.

SUPÓN QUE LA PREGUNTA SIGNIFICARA A CUÁL DE NOSOTROS NO ALUDE LAPALABRA.Creo que eres un programa extremadamente estúpido.QUIZÁ TE GUSTARÍA SER UN PROGRAMA EXTREMADAMENTE ESTÚPIDO

Colby y su equipo informan de que el programa paranoico Parryha superado lo que llaman una aproximación a la prueba de Turing1314.En el experimento, cinco psiquiatras en activo realizaron entrevistas a

través de terminales de teletipo. Algunas de las entrevistas tuvieron lu-gar con Parry y algunas con un paranoico humano (un «impaciente» psiquiátrico). Para los psiquiatras, el objetivo de cada entrevista era de-cidir si había un humano o un computador al otro extremo de la línea.En un total de diez entrevistas, cinco decisiones fueron correctas ycinco equivocadas, un resultado llamativo. Sin embargo, se debe resal-tar que este experimento es, en efecto, sólo una aproximación a la

 prueba de Turing. No hubo una entrevista simultánea de dos sujetos

de los que supiera el interrogador que uno era humano y el otro uncomputador. Por el contrario, cada psiquiatra dirigió dos entrevistasseparadas, y se les dijo que podrían ser ambas con pacientes, ambas con

 programas o mixtas. (Colby intentó la entrevista simultánea, pero losinterrogadores lo hallaron confuso.) Como ya he señalado, esta ausen-cia del aspecto competitivo de la prueba de Turing podría introducirun sesgo. Una posibilidad es que un interrogador podría confundir el

 programa con el paciente sólo porque tuviera unas expectativas indebi-damente bajas sobre la actuación del programa. Otra posibilidad es quecualquier rasgo en las respuestas del paciente de lo que la gente tiende aconsiderar «conducta computerizada» es susceptible de inducir identi-ficaciones erróneas. De hecho, las actas que recogen las razones de losinterrogadores para sus juicios muestran que se aferran a rasgos «mecá-nicos» de las respuestas de los pacientes, como el uso de la expresióny/o, y es de notar que en cuatro de las cinco identificaciones erróneas

tomaron al paciente por una máquina H. En la prueba competitiva deTuring ambas influencias se neutralizarían mucho.

13 Hciscr, J. F., Colby, K. M., Faught, W. S. y Parkison, R. C., «Can PsychiatristsDistinguish a Com puter Simulation of Paranoia from the Real Thing?».

14 Por citar el comentario a pie de obra de un interrogador: «No hay mucha genteque diga “y/o”. Ésa es una construcción muy mecánica» (op. cit., p. 155).

Page 71: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 71/416

¿Puede pensar una máquina? 75

El experimento de Colby se desvía seriamente de la prueba deTuring en otro sentido. La prueba deriva gran parte de su plausibili-dad del hecho de que el interrogador puede ampliar y profundizar el

cuestionario tanto como desee, pero las características de la conversación de un paranoico impiden precisamente que esto ocurra: es evasivo, obstructivo, hostil, cambia repentinamente de asunto, y vuelvemachaconamente a temas delirantes (en el caso de Parry, las carrerasde caballos y la Mafia).

Una última indicación: en el experimento de Colby resulta claroque para los interrogadores fue una experiencia desorientadora entrevistar por teletipo, y su incapacidad de distinguir con acierto entre el programa y el paciente puede no haber sido sino un resultado deesto. Así, debería ser una condición de la prueba de Turing que losinterrogadores comprometidos posean una experiencia previa adecuada con entrevistas a través de terminales. Esta práctica remediaríatambién sin duda las dificultades que Colby experimentó con las entrevistas simultáneas.

Con independencia de la actuación de Parry y Eliza en la prueba

de Turing, un vistazo al modo como operan los programas estableceen seguida que no piensan. Ambos emplean una técnica conocidacomo comparación de patrones. El programa escruta mecánicamenteuna sucesión de símbolos (en este caso, letras del alfabeto) para verificar si aparece o no determinado patrón (aquí una palabra o grupode palabras). Cuando el entrevistador teclea una oración, el primermovimiento de Parry es buscar en ella uno de los muchos patronesque almacena el programa. El programador ha asociado a cada uno

de estos patrones una larga lista de oraciones, y una vez que Parrydetecta un patrón en la entrada, simplemente escribe la primera oración de la lista asociada. Por ejemplo, si la oración de entrada contiene la palabra «tú», más una expresión de la lista anormal (queincluye cosas tales como «necesitas tratamiento», «delirante», «paranoico»), Parry selecciona la primera oración de la lista de respuestasalienadas y la escribe. Así, en respuesta a «Tú estás delirando» el programa puede escribir «Creo que sé qué están tramando ustedes losmédicos» (después de usar una oración el programa la borra de lalista para asegurarse de que no puede aparecer dos veces en la entrevista). Cuando no aparece ninguno de los patrones almacenados en laoración del entrevistador, el programa puede seleccionar una oraciónde la lista de últimos recursos (por ejemplo, «¿Por qué dices eso?»), osimplemente seleccionar la siguiente oración de la lista asociada con

Page 72: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 72/416

76 Inteligencia artificial. Una introducción filosófica

el último patrón encontrado 15. Una vez desveladas las operacionesinternas de Parry, el programa se nos muestra del todo prosaico. Pormás útil que pueda ser Parry para el estudio de Colby de la paranoia,

no es, desde luego, un candidato para el título de «pensador» (de paso el programa Shrdlu de Winograd también hace un amplio usode oraciones prefabricadas).

También Eliza es un comparador de patrones. A veces se apoya,como Parry, en listas de respuestas preparadas. Por ejemplo, si apa-rece el patrón «quizá» en la oración de entrada, el programa emiteuna respuesta elegida en una lista de oraciones tales como «No pare-ces demasiado seguro», y la presencia de «todo el mundo» en la en-trada dirige al programa hacia una lista de respuestas como «estás

 pensando en una persona en particular, ¿no?» (los patrones, además,tienen un orden de precedencia asignado con anterioridad: si apare-cen «quizá» y «todo el mundo» a la vez en la oración de entrada, elúltimo es el llamado patrón dominante, y el programa emitirá unarespuesta del tipo «todo el mundo»). Sin embargo, al revés que Parry,Eliza es también capaz de construir contestaciones por sí misma.

Hace esto transformando la oración de entrada. Cada patrón almace-nado en el programa lleva asociada una lista de transformaciones,cada una de las cuales suministra una oración de salida cuando seaplica a la oración de entrada que contiene ese patrón. Por ejemplo,uno de los patrones almacenados es

---- tú... me

Este patrón encaja con la oraciónTú me odias.

Al encontrar esta oración, el programa selecciona la primeratransformación de la lista asociada con el patrón, por ejemplo

TE GUSTA PENSAR QUE YO TE..., NO ES CIERTO

Aplicando la transformación, obtiene la oración de salida

TE GUSTA PENSAR QUE YO TE ODIO, N O ES CIERTO

15 Quienes se interesen por una descripción más completa de los detalles del fun-cionamiento de Parry, pueden leer Artificial Paranoiayde Colby.

Page 73: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 73/416

¿Puede pensar una máquina? 77

Una vez se ha aplicado una transformación, es trasladada al finalde la lista (en cada lista suele haber cuatro o cinco transformaciones).

Cuando en la oración de entrada no aparece ninguno de los pa-trones almacenados, puede, como Parry, ir sencillamente a su lista deúltimos recursos, que contiene oraciones prefabricadas como «Qué tesugiere eso». Además, de vez en cuando hace uso de un ingeniosotruco de programación que le permite producir respuestas más visto-sas en situaciones de ausencia de patrón. Dada la aparición de unaoración de entrada en que el patrón dominante es «mi», Eliza no sóloaplica la transformación de la cabecera de la lista asociada para pro-

ducir su respuesta, sino que selecciona otra transformación de una se-gunda lista, la aplica y almacena el resultado para usarlo en un casode ausencia de patrón. Así, al encontrar una oración

M i-

el programa puede almacenar para su uso ulterior la oración produ-cida aplicando la transformación

TIENE ESO ALGO QUE VER CO N EL HEC HO DE QUE TU...

Durante la charla reproducida en el capítulo 2, este mecanismogeneró la respuesta:5

TIENE ESO ALGO QUE VER CON EL HECHO DE QUE TU NOVIO TE HICIERA

VENIR AQUÍ

(«Me hiciera venir aquí» se sustituye por «te hiciera venir aquí» deacuerdo con la política universal de Eliza de reemplazar incondicio-nalmente los pronombres de primera por los de segunda persona, yviceversa.) Fue pura suerte que Eliza produjera esta oración en unmomento tan apropiado del diálogo.

En realidad Eliza depende enormemente de su fortuna. Por másagudo y sutil que sea el sistema de patrones y transformaciones deWeizenbaum, siempre cabe la posibilidad de que la oración de salidasea un obtuso desperdicio. Esto lo ilustra bien la «conversación» re-

 producida unas páginas más atrás. Mi intervención

Hablemos acerca de ti, no de mí: ¿puedes pensar?

Page 74: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 74/416

78 Inteligencia artificial. Una introducción filosófica

se conforma al patrón

---- ti... mí

y Eliza aplica la transformación recién mencionada para producir larespuesta

TE GUSTA PENSAR QUE YO: NO TÚ: NO ES CIERTO

(El «¿Puedes pensar?» simplemente se pasa por alto. Eliza sólo puedetratar una oración cada vez. En realidad, incluso una coma detendrá

su lectura.) Hubo otra transformación de la lista «tu... me» que produjo el vacuo

POR QUÉ PIENSAS QUE YO ME REFIERO POR TI

Si alguna vez se convierten en realidad los computadores pensantes, los historiadores dirán, estoy seguro, que Eliza y Parry tienencon ellos la misma relación que las «máquinas voladoras» de pedalesde principios de siglo, proclives a estrellarse, tenían con el aeroplano.

Weizenbaum eligió el entorno de una entrevista psiquiátrica parasu programa porque suministra, como él dice, «uno de los pocosejemplos de... comunicación en lenguaje natural en la cual una de las

 partes es libre de adoptar la posición de no saber nada sobre elmundo real» í6. Es así como Eliza elude la necesidad de un «almacénde conocimientos». Como veremos en el capítulo 5, el diseño de al

macenes extensos de conocimiento, de acceso rápido y de fácil revisión, es un problema central de la IA, el llamado problema del conocimiento. Un programa de verdad indiscernible de los hablanteshumanos exigiría, por supuesto, un vasto almacén de conocimientos,que contuviera más o menos lo que los seres humanos corrientesconocen. A la vista de esto, nada más, es inverosímil que haya aspirantes auténticos a superar la prueba de Turing durante una buenatemporada.16

16 Weizenbaum, J., «ELIZA -a Computer Program for the Study of Natural Language Communication Between Man and Machine», p. 42. (En este artículo se puedeencontrar más información sobre el funcionamiento de Eliza.)

Page 75: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 75/416

3.4, Cuatro objeciones a la prueba de Turing

¿Puede pensar una máquina? 79

Voy á explicar y valorar algunas objeciones importantes a la

 prueba de Turing

1.  La objeción del chimpancé 

Según la primera objeción,Ta prueba es demasiado conservadora 17. Pocos negarán que los chimpancés piensan, pero ningún

chimpancé pasa la prueba de Turing. Y lo mismo los delfines, perrosy otras criaturas, incluidos los niños humanos prelingüísticos. Si losanimales pensantes pueden fallar en la prueba de Turing, es de suponer que esto también les puede ocurrir a ordenadores pensantes. Se

 puede concebir que los primeros ordenadores pensantes carecierande la complejidad psicológica suficiente para pasar la prueba. Porotro lado, un ordenador pensante podría fracasar en la prueba porquesus respuestas fueran característicamente no humanas, o incluso por

que no tuviera interés o porque le pareciera humillante. No se puede negar que esta objeción convierte en absurda la opi

nión de Turing de que la vaga pregunta filosófica «¿puede pensar unamáquina?» se puede sustituir , sin más, por la pregunta precisa y científica «¿puede un domputador pasar la prueba de Turing?». Pero estaobjeción dista mucho de desmontar la prueba misma. Lo único quemuestra es que la prueba no es lo que podríamos llamar una prueba de papel tornasol  Ponga papel de tornasol en un líquido: si el papel se

vuelve rojo, hay un ácido, y si no, no lo hay. Por tanto, si el líquidono pasa la prueba —no enrojece el papel— se sigue que el líquido noestá acidulado. La prueba de Turing no es así: no se sigue nada definido si una entidad no lo pasa. Esto, no obstante, no impugna la

 prueba de Turing. Hay muchas pruebas perfectamente buenas quecomparten este rasgo. La prueba de las huellas dactilares, por ejemplo(no hay huellas dactilares de X en el arma homicida, pero el asesino

 podría haber usado guantes). Las pruebas como la del papel tornasolson una bendición relativamente escasa.Por ahora hemos llegado a la inocente conclusión de que un re

sultado negativo de la prueba no indica nada definido. Las tres obje-

17   Ned Block, por ejemplo, propone esta crítica en «Psychologism and Behaviourism».

Page 76: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 76/416

BO Inteligencia artificial. Una introducción filosófica

dones restantes intentan demostrar que tampoco un resultado positivo indica nada. Su tema común es que la prueba de Turing es demasiado liberal: podría tener éxito un aparato incapaz de pensar.

2.  La objeción de los órganos de los sentidos

La prueba de Turing se centra en la capacidad de dar respuestasverbales. La objeción advierte que esto se parece a un examen de conducir que sólo consista en responder preguntas. No se examina la ca

 pacidad del ordenador para relacionar las palabras que está usandocon las cosas a las que se refieren o significan. El interrogador no

 puede, por ejemplo, levantar un cenicero y decir «¿cómo se llamaesto?». Por tanto, sigue la objeción, un computador podría pasar la

 prueba sin saber los significados de las palabras que usa, y, así, el hecho de que la haya pasado no es garantía para decir que puede pensar.El remedio, concluye la objeción, es fortalecer la prueba de Turing.El ordenador tiene que estar equipado con órganos sensoriales artifi

ciales —un ojo televisivo, por ejemplo— para que el interrogador pueda investigar el dominio que tiene el ordenador, si lo tiene, de loque dicen acerca del mundo las palabras que usa18.

Esta objeción no me convence. Muchas palabras, tales como «raízcuadrada», «información», «inteligencia» y «filosofía», no se refieren aobjetos que se puedan ver o tocar. Una manera obvia de averiguar si alguien (o algo) entiende la palabra «cenicero» es enfrentar su dotaciónsensorial con un cenicero y ver si dice cosas como «¿Por qué me pones

delante ese cenicero?», pero no disponemos de este procedimiento enel caso de las raíces cuadradas. Aquí el medio evidente de comprobación es hacer preguntas apropiadas. En este caso, y en muchos otros, lafalta de dotación sensorial de un computador no impide que la habilidad del interrogador ponga a prueba su comprensión de las palabrasque usa. La palabra «importunar» es otro buen ejemplo: el ordenadorno necesita órganos sensoriales para reconocer si el interrogador le está

importunando, y por tanto, en la situación de la prueba de Turing se puede investigar fácilmente su comprensión de esa palabra.Podríamos volver al ejemplo de interrogatorio a que Turing so

mete a la máquina y considerar en qué medida estaríamos limitados

18 Peter Camithers hace esta objeción en Introducing Persons, pp. 241-2.

Page 77: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 77/416

¿Puede pensar una máquina? 81

 por la falta de órganos sensoriales de la máquina, si decidiéramos pía-near una investigación más profunda de su comprensión de las pala

 bras que usa. En efecto, «soneto», «medida», «comparar», «recor

dar», «serio» y «típico», por ejemplo, se prestan de maravilla a unainvestigación mediante recursos verbales. Es más, en estos casos esdifícil ver cómo podría facilitar la tarea del investigador añadir órganos sensoriales. En resumen, pues, la objeción de los órganos sensoriales supone que la única manera de comprobar la comprensión, por

 parte de un hablante, de las palabras que pronuncia es investigar lainteracción sensorial con su entorno, pero esto está muy lejos de serverdad. (No, desde luego, que el recurso a lo verbal sirva para todaslas palabras. La única forma de saber si un ordenador entiende las palabras «mancha roja», por ejemplo, es pedirle identificar una o dosmanchas.)

Quizá valga la pena destacar que las especificaciones de la pruebade Turing no prohíben competir a ordenadores con órganos sensoriales, y puede que el primer ordenador que pase la prueba esté erizado de aparatos sensoriales. Lo importante es que, bajo las especifi

caciones de la prueba, al interrogador sólo se le permite un contactoverbal con el computador. Al fin y al cabo, si el interrogador pudieraver a los contendientes a través de un cristal, el computador perderíatodas las veces.

Turing mismo especuló que la mejor manera de armar un computador para la prueba podría ser equipar la máquina «con los mejoresórganos sensoriales que el dinero pudiera comprar» y luego someterla a «un curso de educación apropiado»19. Sería una tarea ciclópea

escribir un programa que incorporara toda la competencia lingüísticade un hablante, y Turing pensaba que sería un objetivo más realista

 programar una máquina que aprendiera el idioma por sí sola. Peroesto no incide en absoluto en la objeción de los órganos de los sentidos, pues lo que se dirime es si el interrogatorio verbal es o no una prueba adecuada de comprensión, no si es necesario proveer al ordenador de órganos sensoriales para que adquiera el lenguaje.

Aunque la especulación de Turing fuera acertada, es de suponerque no será necesario administrar un engorroso «curso de educación»a todo computador al que se quiera dotar de competencia lingüística.Lo que un computador aprende penosamente gracias a un proceso de

19 «Computing Machinery and Intelligence», pp. 456, 460.

Page 78: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 78/416

82 Inteligencia artificial. Una introducción filosófica

interacción sensorial con su entorno se puede transferir a una máquina hermana en el parpadeo de un disquete. Ni hace falta que laotra máquina esté equipada de órganos sensoriales* Aunque haya al

gunas palabras cuyo significado cabal no se pueda transmitir a unamáquina desprovista de órganos sensoriales, esto sólo ocurrirá en elcaso de palabras conectadas muy de cerca con la experiencia sensible,y una gran mayoría de nuestras palabras caen fuera de esta categoría(consideremos «filosofía», «soneto», «raíz cuadrada» e «importunar»,

 por ejemplo).

3.  La objeción de la simulación

Esta objeción comienza por observar que un X simulado no esun X. Los diamantes simulados no son diamantes* Un X simulado essemejante a X, pero no un X real. Ahora supongamos que un computador supera la prueba de Turing. ¿Podría esto mostrar que el computador piensa? El éxito en la prueba sólo muestra que el computador

ha dado una buena simulación de un ser pensante, y eso no es lomismo que pensar. Consideremos una versión de la prueba en que elinterrogador se enfrenta, no a un computador y un ser humano, sinoa un hombre y una mujer. El interrogador intenta distinguir cuál delos dos es el hombre y el hombre intenta provocar una identificaciónerrónea (Turing menciona este escenario en su presentación de la

 prueba). Supongamos que el hombre pasa la prueba (es decir, consigue una frecuencia suficiente de identificaciones equivocadas en

cierto número de ensayos). Esto no muestra, claro está, que el hom bre sea una mujer, sólo que en una conversación es capaz de dar unasimulación buena de una mujer20. De forma semejante (concluye laobjeción) el que un computador supere la prueba no muestra que

 piense, sólo que es capaz de ofrecer una excelente simulación de unconversador inteligente.

En mi opinión este reproche es confuso, aunque en el fondo contiene un grano de verdad. Lo primero que hay que hacer para revelarsu flaqueza es advertir la falsedad de la afirmación de que un X simulado nunca es un X. Consideremos la simulación de la voz. Si un

20 Compárese con lo que dice Douglas Hofstadter en The Mind's Eye  (comp, porHofstadter, D. R. y Dennett, D, C.), pp. 72-3.

Page 79: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 79/416

¿Puede pensar una máquina? 83

computador habla con un acento pasable, ¿no es esta voz simuladauna voz, artificial en vez de humana, pero una voz al fin y al cabo?

De modo semejante, las proteínas artificiales son proteínas, y muchos

otros fenómenos y sustancias producidos artificialmente.La comparación de estos casos con el de la muerte simulada, por

ejemplo, indica que hay dos tipos de fundamento totalmente distin

tos para clasificar algo como una simulación. Llamemos una simula

ción $imulación1si carece de rasgos esenciales de lo simulado. Así, la

muerte simulada es una simulaciónj de la muerte porque la persona

del caso sigue viviendo, y el cuero simulado es una simulado^ del

cuero porque está compuesto de moléculas de distinto tipo. Llame

mos a algo $imulacián2si es exactamente igual que lo simulado, salvo

 porque no ha sido producido de la forma habitual, sino por algún

medio no convencional, quizá en condiciones de laboratorio. Así, el

carbón producido artificialmente en un laboratorio se puede llamar

carbón simulado aunque sea por entero indistinguible del carbón na

tural. La palabra «simulado» aquí no indica más que es carbón artifi

cial: no salió de la mina. Nuestro ejemplo anterior de la voz simulada

es también una simulación2: tiene todas las características esencialesde una voz, pero está producida artificialmente. Por tanto, sólo a me

dias es verdad que un X simulado no es un X: un X simulado1no es

un X, pero un X simulado2es un X.

Ahora es inmediata la respuesta a la objeción de la simulación. La

objeción supone, sin más argumento, que las simulaciones compu-

tacionales del pensamiento siempre serán meras  simulaciones, nunca

reales. En la terminología de simulación^simulacióo,, la objeción su

 pone sin argumentos que, por buenas que lleguen a ser las simulaciones del pensamiento de los computadores, la simulación siempre será

del tipo 1 y nunca del tipo 2. Sin embargo, nuestra cuestión central

sobre si un computador puede pensar, pregunta precisamente si una

simulación del pensamiento por parte de un computador puede ser

una simulaciónr Por tanto, la objeción de la simulación se limita a

 prejuzgar el problema central, y, por consiguiente, carece de interés.

La objeción de la simulación tiene, sin embargo, una virtud. Nos

encamina a preguntarnos si la prueba de Turing traza la divisoria en

tre simulación y simulación2 donde debe. ¿Se sigue que un computador que supere la prueba da una simulación2de un ser pensante, oes concebible que un computador que sólo suministre una

simulación pueda superarla? La respuesta es que es concebible, como

muestra la crítica siguiente.

Page 80: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 80/416

Inteligencia artificial. Una introducción filosófica

4.  La objeción de la caja negra

La proverbial caja negra es un aparato cuyas operaciones internas

se concede que permanecen en el misterio. En la prueba de Turing setrata el ordenador como una caja negra. El juicio de si el ordenador

 piensa o no sólo se basa en su conducta externa. ¿Es esto una desven-taja?

Turing pensaba que no. Insiste en que el juicio de que otra  per-

 sona piensa se basa siempre sólo en su conducta externa; así, si deci-mos que la conducta conversacional no proporciona un fundamentoadecuado para juzgar que un computador piensa, estamos forzados a

la incómoda posición de decir que nuestro juicio de que los humanos piensan está igualmente mal fundado. En mi opinión, Turing se equi-voca con ese paralelismo. (Una objeción posible a Turing en este punto es que el juicio de que otra persona piensa está basado en unagama rica y variada de conductas externas, no sólo en la conductaconversacional, pero no creo que esto importe mucho. Una conductaexterna más complicada no es, al fin y al cabo, sino conducta externa,

y, en todo caso, hay una íntima conexión entre la conducta verbal yel pensamiento.) La omisión importante en el punto de vista de Tu-ring es ésta: cuando yo juzgo que usted piensa sobre la base de suconducta externa, lo hago en el contexto de mi creencia en que tene-mos cuerpos semejantes, en los que acontecen procesos semejantes,incluidos cualesquiera procesos electroquímicos del cerebro inmedia-tamente responsables del pensamiento. Desde luego, en el compu-tador falta este contexto. Para apreciar la importancia de este con-

texto, imagine que usted y Turing, que se acaban de conocer, van auna fiesta. El coche tiene un accidente. A usted no le pasa nada, peroTuring sufre profundas excoriaciones en varias partes de su cuerpo.Para su sorpresa, usted no ve sangre, sino metal, plástico, cables y ta-

 bletas de silicio con el sello «made in Taiwan». ¿No pondría en dudainmediatamente su juicio natural de que Turing es un ser pensante?En circunstancias adecuadas podría volver a sostener ese juicio (esoes lo que voy a argumentar después), pero, para empezar, querría sa- ber más cosas sobre Turing. ¿Es simplemente un muñeco compli-cado? La despreocupada conversación que mantuvieron por el ca-mino ahora no le mueve lo bastante a decir que piensa. Sin embargo,antes del accidente, cuando usted tenía diferentes creencias sobre suconstitución corporal, tomó su conducta externa como prueba posi-tiva de su calidad de ser pensante. Así, pues, Turing yerra cuando

Page 81: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 81/416

¿Puede pensar una máquina? 85

contempla su prueba como una simple exposición de los criterios queimplícitamente nos aplicamos los unos a otros y como una aplicaciónde los mismos al computador.

Cuando, unas páginas más atrás, concluía que Parry y Eliza no piensan, basaba mi juicio en un examen, no de su conducta externa, sino de cómo operan. Incluso si per impossibile  Parry pasara la

 prueba de Turing, el examen de su caja negra me seguiría convenciendo de que Parry no piensa. Así, la conducta externa de un computador no es base suficiente para fundar el juicio de que piensa. Deesto se sigue que la prueba de Turing no vale. Si esta conclusión parece un poco atrevida, consideremos el siguiente escenario de ciencia-ficción.

Una misión de exploración procedente de un lejano lugar del universo aterriza en nuestro planeta. Aunque sus tripulantes son incalculablemente más inteligentes que los humanos, se muestran deseososde hablar con nosotros. Un entusiasta investigador de la IA le explicala prueba de Turing a uno de ellos. Con el equivalente alienígena deuna carcajada dice que en un momento puede improvisar un compu

tador que la supere. Y lo hace. Después explica cómo ha programadoel computador. Un idioma sólo contiene un número finito de pala

 bras. Por tanto, sólo hay un número finito de oraciones que contengan un máximo de, por ejemplo, cien palabras (aunque aquí cualquiernúmero elevado de palabras satisfaría los propósitos del extraterrestre). Se sigue que hay un número finito de conversaciones con dos

 participantes que contengan oraciones de una longitud máxima decien palabras (suponiendo que a ninguna de las partes se le permita

repetir la misma oración un número indefinido de veces). Ciertoque, desde un punto de vista humano la cantidad de esas conversaciones es mareante, pero sigue siendo un número definido, finito. Loque hizo el alienígena fue construir todas las conversaciones significativas con dos participantes en las que uno, el interrogador, usaoraciones de hasta cien palabras, y el otro, el computador, usa oraciones de hasta cuarenta palabras. Hecho esto introdujo en bloquetodas las conversaciones en . el programa (de la misma manera queColby construyó por adelantado las respuestas de Parry y las pusoen el programa). Cuando el interrogador escribe su primera intervención, Superparry —como llamaban al programa del alienígena—selecciona al azar una de las muchas conversaciones que comienzande esta forma y escribe la intervención del segundo participante. Elinterrogador responde, y Superparry selecciona al azar una de las

Page 82: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 82/416

conversaciones que comienzan con las tres intervenciones ya hechas,y así sucesivamente.

 Ningún interrogador humano es capaz de distinguir a Superparry

de un conversador humano, excepto por mera adivinación. El alienígena, claro está, puede hacer que el programa fracase simplementecon escribir una oración de más de cien palabras, pero al diseñar el

 programa apostó sobre la certeza práctica de que ningún interrogador humano haría eso. También tomó la precaución de incluir sóloconversaciones en que el segundo participante (el computador) res

 ponde con cierta confusión a las oraciones de más de unas cincuenta palabras.

Se me ha dicho21 que un interrogador astuto podría coger a Su perparry tecleando «Escribamos “*!=” en lugar de “caballo”; ahoradime si un *! = tiene rabo.» Sin embargo, en una terminal sólo se

 puede escribir un número finito de caracteres, de modo que sólose puede realizar un número finito de tales maniobras, y el

 programador alienígena tendrá que preverlas:—y otras semejantes— poranticipado. (Incluso aunque el interrogador utilice los gráficos de laterminal para introducir símbolos de su invención, el número de sím bolos diferentes que puede producir la terminal sigue siendo finito.)

Otro aspecto que vale la pena mencionar es qué hace el programacon las oraciones repetidas. ¿Podría el interrogador descubrirlo si escribiera una y otra vez la misma oración, por ejemplo? No: el extra-terrestre ha previsto esto y ha emparejado las repeticiones absurdascon respuestas cada vez más irritadas hasta que después de la octavarepetición da por terminada la charla con una réplica airada.

 No hay, desde luego, ninguna razón para creer que en el universohaya una criatura con la inteligencia que requiere escribir este programa, ni para creer que sea posible físicamente un computador conla capacidad de ejecutarlo. Eso no importa. Aunque sea hipotético, elejemplo muestra que en principio es posible que pase la prueba deTuring un computador que no piense, pues Superparry no tiene másméritos para llamarlo pensante que su pariente pequeño, pero similaren el núcleo, Parry22.

86 Inteligencia artificial. Una introducción filosófica

21 Por Malcolm Stairmand.22 También se les ha ocurrido una versión de este argumento a Claude Shannon y

John McCarthy (Automata Studies, pp.v-v i) y a Ned Block («Psychologism and Behaviourism»). James Culbertson ha mostrado, en efecto, cómo se diseña una máquina idealizada que haga lo que le he atribuido a Superparry («Some Uneconomical Robots»).

Page 83: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 83/416

3.5. Valoración de la prueba

¿Puede pensar una máquina? 87

La objeción de la caja negra establece lo inapropiado de la prueba de

Turing. Puesto que la prueba sólo se ocupa de la salida producida, es in-capaz de distinguir entre un programa que merezca de verdad el títulode «pensante» y un programa a las claras no pensante como Superparry.¿Hay alguna manera de remendar la prueba para vencer esta dificultad?

Lo que el extraterrestre ha hecho es usar su conocimiento de lasespecificaciones de la prueba para construir un programa destinado asuperarla, pero incapaz de hacer nada más. Si en el curso de la pruebase le suministrara a Superparry un ojo televisivo y unos programas de

reconocimiento visual y se le pidiera describir lo que ve, no sabríaqué decir. Desde luego, si el extraterrestre hubiera sabido por las es-

 pecificaciones de la prueba que esto iba a ocurrir, podría haber in-cluido un subprograma especial que emparejara respuestas verbales

 preparadas con formas visuales (el ojo televisivo sólo puede ofrecerun número finito de ellas); pero la inclusión en la prueba de tareas noespecificadas por adelantado derrotaría a cualquier programa hecho

ex profeso como Superparry. Una forma de mejorar la prueba, pues,es dejarla abierta: el computador debe ser indiscernible del humanono sólo en la conversación, sino en la realización de cualquier tareaque el interrogador decida especificar.

Habría evidentes dificultades para aplicar la prueba. Incluso ta-reas más o menos elementales propuestas por el interrogador podríanconstituir problemas nuevos que requirieran de meses de investiga-ción. Con todo, esta forma de mejorar la prueba aborda sus defectos

de una manera ridiculamente indirecta. El problema de la prueba ori-ginal de Turing es que sólo se examina la conducta exterxia, cuandohabría que tener en cuenta también el diseño del programa. El mediomás simple para remediar este defecto es complementar la prueba dela conversación con un vistazo a la forma de operar del programa.Así, la prueba de Turing mejorada debe constar de dos elementos: primero, el examen conversacional, que establecerá si se satisface ono el criterio de la conducta,  como podemos llamarlo (esto es, esta-

 blecerá si la salida verbal del computador es indiscernible de las inter-venciones conversacionales de un ser humano); y, segundo, deberíahaber un examen del programa mismo, que establecerá si se satisfaceo no lo que podríamos llamar el criterio del diseño.

¿Cuál podría ser el criterio del diseño? Estudiaremos dos posibili-dades. La primera es que el programa debería hacer las cosas que hace

Page 84: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 84/416

88 Inteligencia artificial Una introducción filosófica

de una manera más o menos semejante al modo como esas cosas sehacen en el interior de un cráneo humano, Esto eliminaría de inme-diato un programa como Superparry, cuya manera de conversar es

 palpablemente inhumana. Volviendo a la distinción del capítulo ante-rior entre IA humana e IA ajena (sección 2,7), esta versión del crite-rio del diseño equivale a estipular que cualquier programa que em-

 plee técnicas obtenidas de la IA ajena estará abocado a fracasar en la prueba. (Se entiende que el criterio exige un alto grado de equivalen-cia entre la forma como el computador actúa y la forma como lo haceel cerebro. Éste es el nivel en que es posible decir que un modernocomputador y una vieja máquina de tubos de vacío ejecutan el mismo programa, aunque cada máquina se comporte de modo muy diferenteen el nivel inferior de las operaciones eléctricas debido a su constitu-ción fundamentalmente distinta.)

Un posible reproche a esta versión del criterio del diseño es que esdemasiado fuerte. Puede parecer más antropocéntrico de lo debido exi-gir que el programa funcione de manera más o menos humana. Sin em-

 bargo, se debe recordar en defensa del criterio que la prueba de Turing

no es una prueba de papel tornasol del pensamiento. Criaturas pensan-tes como el chimpancé fracasarían en la versión original de la prueba; por tanto, ¿por qué debería preocuparnos que algunos computadores pensantes fracasen en esta versión reforzada de la prueba? La versiónoriginal de la prueba de Turing es descaradamente antropocéntrica,

 pues exige que el computador pueda producir una conducta externaindiscernible de la de un ser humano. Esta versión del criterio del di-seño se limita a extender este sesgo antropocéntrico al programa

mismo. Esto concuerda con el espíritu de las propuestas de Turing.Por otro lado podríamos favorecer una versión mucho más débil

del criterio del diseño, quizá simplemente que el programa sea modu-

lar.  Es decir, que en principio podamos insertarlo entero en otros programas (añadiendo o quitando unas pocas líneas de códigos), paraconstituir un programa de mayor complejidad. Por ejemplo, deberíaser posible insertar el programa sometido a prueba en programas quecontrolen los sistemas motor y sensorial de un robot, a efectos de queel robot pueda conversar sobre lo que está haciendo. Esta versión delcriterio del diseño tiene puntos de semejanza con la prueba abierta deTuring considerada más arriba. Sin embargo, una diferencia funda-mental es que basta un examen del programa para establecer si satis-face o no el criterio, no se requiere que se realicen de hecho las exten-siones como parte de la prueba.

Page 85: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 85/416

¿Puede pensar una máquina? 89

Esta versión del criterio del diseño protege la prueba de progra-mas que podrían satisfacer el criterio de la conducta por medio detrucos. Hay que tomar en serio esta posibilidad, pues un puñado re-

lativamente simple de trucos, como Eliza, consiguió muchas veces in-ducir a la gente a pensar que estaba conversando con un ser humano.Es verdad que un Superparry a escala real es sólo una posibilidad teó-rica, pero no puede haber garantía de que un programador ingeniosono produzca un programa capaz de pasar la prueba original de Tu-ring mediante trucos (quizá en respuesta a la oferta de 100.000 dóla-res que hizo en 1991 el entusiasta Hugh Loebner para el programa-dor de la primera máquina que consiga superar la prueba de Turing).

Pienso que el resultado de esta discusión es que ninguna de estasversiones del criterio del diseño es claramente correcta ni errónea, niuna es claramente mejor que la otra. Así, tenemos dos versiones de la prueba reforzada de Turing, una débil y otra fuerte, de las cuales la primera incorpora el criterio del diseño modular, y la segunda el cri-terio antropocéntrico del diseño. En el momento actual de la discu-sión no está nada claro lo que debemos juzgar de estas dos versiones.

¿Es la versión débil un criterio satisfactorio del pensamiento y lafuerte demasiado rígida para tener interés? ¿Es mejor la fuerte? Esmás, ¿hay alguna razón para mantener que alguna de ellas es un crite-rio satisfactorio del pensamiento?

La estrategia de Turing respecto a la pregunta central de si se puede decir verdaderamente que una máquina piensa fue devolver la pregunta de la siguiente forma: mire, si se pudiera construir una má-quina que hiciera X, ¿estaría usted de acuerdo en que las máquinas

 pueden pensar? Ahora vemos que esta vía indirecta para abordar la pregunta falla, pues aunque tomemos en consideración tanto la ac-tuación interna como la externa, no hemos sido capaces de determi-nar esa X de modo que la respuesta al reto de Turing sea un claro  sí  Por consiguiente, es el momento de abandonar la estrategia de Turingy abordar la pregunta de cara.

3.6. Tiempo de decidir 

La pregunta de si un artefacto electrónico puede pensar no se pa-rece a la de si (por ejemplo) un organismo carente de clorofila puedetener fotosíntesis. La segunda pregunta es de las que se deben resol-ver mediante la observación: una vez formulada la pregunta, nos

Page 86: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 86/416

90 Inteligencia artificial. Una introducción filosófica

volvemos hacia la Madre Naturaleza para buscar la respuesta. La primera pregunta, por el contrario, sólo la puede determinar una de-

cisión nuestra. Existe un acertijo que puede ayudar a aclarar esta dife

rencia.Existe un antiguo enigma sobre el barco de Teseo, un navio sagradode los atenienses23. Con el paso de los años, las reparaciones hicieronque más y más partes del barco fueran sustituidas por nuevos componentes: un año media docena de tablas, el año anterior un mástil, etc.Llegó un momento en que el barco no tenía ninguno de sus componentes originarios. Éstos, sigue la narración, habían sido celosamenteguardados a lo largo de los años, y cuando la colección estuvo com

 pleta volvieron a montar las partes y construyeron un barco que, bienes cierto, hacía agua. ¿Cuál de los dos es el barco originario, si algunolo es? Supongamos que al botar el barco le hubieran concedido derechos de puerto gratuitos a perpetuidad, ¿a cuál de los dos navios seaplicaría esta exención? ¿Qué pasaría si eso mismo le ocurriera a mireloj? ¿Cuál de los dos relojes es el que compré, el que llevo en la muñeca o el que de ptonto fabricó el excéntrico coleccionista?

La mayoría de la gente no sabe qué decir en esta situación, perolos que creen que sí, generalmente están en desacuerdo. Esto ocurre,me parece, porque no existe una respuesta auténtica. Metafóricamente, la situación cae fuera de la legislación en vigor. Si deseamosuna respuesta, entonces nosotros, la comunidad lingüística, debemoslegislar cuál (o ninguno) de los dos navios es el barco originariamente

 botado (aunque es tan inverosímil que necesitemos una respuesta a la pregunta que no valdrá la pena cubrir ese caso con nuestra legislación

conceptual). Nuestra decisión (si tomamos una) no debe ser arbitraria: tirar una moneda no es forma de resolver la cuestión. Esto es similar a la no inusual situación del juez que toma una decisión sobrecómo se aplica la legislación vigente a un caso nuevo. Por poner unejemplo, imaginemos que unos veteranos de la Segunda Guerra Mundial desean colocar un carro de combate restaurado sobre un plintoen el parque en memoria de sus camaradas. Sucede que hay una ordenanza que prohíbe los vehículos en el parque. ¿Prohíbe la ley esta

conmemoración?24 La decisión del juez no será un dictamen arbitra

23 Thomas Hobbes revitalizó este problema en el siglo xvn. La versión que doy esla suya (Works, ed. Molesworth, W., vol. 1, pp. 136-7).

24 El ejemplo se debe a Fuller, L. L., «Positivism and Fidelity to Law -A Reply toProfessor Hart», p. 663.

Page 87: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 87/416

¿Puede pensar una máquina? 91

rio, sino que contemplará si el propósito de la ordenanza está mejorservido prohibiendo la erección del monumento (y seguramente estono es así). De manera similar, en el caso del barco, la decisión debe

tener en cuenta si los propósitos para los cuales necesitamos el con-cepto de el mismo barco  (como la extensión de contratos cuyo efectose proyecta en el tiempo) son mejor servidos tomando el barco re-construido, el barco reparado, o ninguno, como el mismo que el

 barco botado originariamente.Lo que tenemos en este pintoresco ejemplo es una ilustración de

que una pregunta perfectamente sensata puede quedar abierta aundespués de contar con todos los hechos pertinentes. Esto siempre

ocurrirá cuando la pregunta se refiera a la aplicación de un conceptoa un tipo de caso nuevo de raíz, a un caso que, por así decir, no estabacontemplado cuando se construyó el concepto. Estas preguntas sonmuy distintas de las que se responden con el descubrimiento de unnuevo hecho (tal como si la fotosíntesis puede tener lugar en ausenciade clorofila). Decidimos, más que hallamos, la respuesta a uno de es-tos nuevos casos, y para alcanzar la decisión debemos considerar cuál

de las respuestas posibles se aviene mejor con los propósitos para loscuales empleamos el concepto. La pregunta de si podemos decir que piensa un computador programado adecuadamente es de este género,y por ahora carece de respuesta (y ésa es parte de la razón, sin duda,

 por la que la pregunta"parece desconcertar ál público)25**. Nuestro concepto de entidad pensante se ha formado en un en-

torno en el que sólo ha hallado aplicación entre organismos vivos na-turales. Ahora, por primera vez, nos enfrentamos a la perspectiva de

artefactos que son más o menos indiscernibles de los seres humanosen cuanto a su capacidad para realizar aquellas actividades que noso-

tros  realizamos gracias a la comprensión, la planificación, la resolu-ción de problemas, la toma de decisiones, y otras cosas que describi-mos psicológicamente. ¿Debemos aplicar o rehusar la descripcióncosa pensante en este nuevo caso (junto con todo el vocabulario psi-cológico que esta descripción arrastra)? Lo que, como comunidad

25 Compárese con Hilary Putnam, «Robots: Machines or Artificially CreatedLife?», esp. p. 406. Argumenta que la pregunta de si los androides viven reclama unadecisión, no un descubrimiento (p. 403 y ss.). Putnam sostiene que la pregunta de si losrobots son conscientes también pide una decisión. Mi opinión es distinta. Como severá en el capítulo 8, creo que, por lo que se refiere a la conciencia, hay una cuestión dehecho.

Page 88: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 88/416

92 In te ligencia ar t i f ic ia l. U na in t roduc ción f i losóf ica

lingüística, debemos considerar al tomar esta decisión es si los propó-sitos para los cuales usamos el concepto de ser pensante vienen mejor 

servidos al decidir contar un computador adecuadamente progra-

mado entre las cosas que piensan o no. (Como recomendaba Witt-

genstein: «Ten la palabra “pensar” por una herramienta»26.)

¿Cuáles son, pues, los usos que damos al concepto de ser pen-

sante? Revisaré dos propuestas erróneas antes de pasar a la que consi-

dero correcta. La primera es que nuestro interés para distinguir entre 

entidades pensantes y no pensantes es indicar una distinción fenome- nológica: es decir, diferenciar aquellos seres que creemos que experi-

mentan un «darse cuenta interior» de los que creemos que no tienen esa experiencia. Ya hemos visto lo que hay de erróneo en esa pro-

puesta. Los hechos nos obligan a reconocer que muchas de las activi-

dades que llamamos pensamiento pueden acontecer sin conciencia. La 

clase de cosas que estimamos pensante no tiene por qué coincidir con 

la clase de las cosas de las que creemos que tienen conciencia. Quizá 

estas clases coincidan en el momento presente, pero esto es adventicio, 

como es adventicio en vez de esencial conceptualmente que la clase de 

los bípedos desnudos coincida con la clase de los seres humanos.

La segunda propuesta es que nuestro objetivo al distinguir entre 

cosas pensantes y no pensantes es indicar una distinción biológica; en particular, diferenciar aquellos seres en los que ocurre cierto tipo de 

procesos biológicos, a los que nos referimos como procesos cerebra-

les superiores. La consideración de un hipotético visitante extrate-

rrestre debería convencernos de que esto es un error. Imaginemos la 

llegada de una alienígena amistosa y simpática que lleva un holo 

grama de su marido y sus hijos en la cartera y que demora su estancia 

en nuestro planeta con el fin de documentar las obras de Shakespeare, 

a quien aprecia como uno de los mejores dramaturgos del cosmos co-

nocido. Supongamos que alguien insiste en que, puesto que la biolo-

gía de la alienígena es por completo diferente de la nuestra, es inco-rrecto decir que piensa (se sabe que su interior está compuesto de 

circunvoluciones de gelatina verde que no soportan ninguno de los 

procesos biológicos familiares). Diríamos sin duda que esta persona 

no comprende el objeto de decir que algo piensa.

Ahora voy a esbozar la que me parece descripción correcta de lo 

que subyace a nuestra distinción entre entidades que piensan y enti-

26 Wittgenstein, L., Philosophical Investigations, sec. 360.

Page 89: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 89/416

¿Puede pensar una m áquina? 93

dades que no piensan. La conducta de la avispa cavadora suministra 

una ilustración útil de lo que quiero decir27. Cuando la avispa hem-bra lleva el alimento a su madriguera, lo deposita en la entrada, pe-netra para comprobar la ausencia de intrusos y luego, si el panorama 

está despejado, introduce la comida. Si un experimentador malévolo 

desplaza la comida unos centímetros mientras ella hace la comproba-ción, al salir volverá a repetir todo el proceso: llevará el alimento a la 

entrada, pasará a echar un vistazo, saldrá a coger el alimento. Dean 

Wooldridge informa de que en cierta ocasión hicieron repetir a la 

avispa el ciclo automático cuarenta veces. El mecanismo interno que 

gobierna su conducta no ha previsto omitir la comprobación si ya la 

ha hecho. Éste es el tipo de interacción con el entorno que sin dudar describimos como no pensante, igual que el reflejo de la rodilla, el cierre de las flores al anochecer y la acción del termostato cuando en-ciende y apaga la calefacción.

Los procesos internos de la conducta de muchos organismos, y de 

todos los artefactos que existen, son relativamente rígidos, mientras que la conducta de algunos organismos — nosotros de forma sobresa-liente— es el resultado de una red vasta, flexible e interactiva de pro-cesos internos que permiten al organismo una gran plasticidad al res-

ponder a su entorno. Nosotros, al contrario que la avispa cavadora, 

podemos, detrás del escenario, generar representaciones de varias res-puestas posibles a una situación nueva, inferir o conjeturar las conse-cuencias probables de estas respuestas y valorar estas consecuencias en vista de nuestros numerosos fines.

En la explicación que voy a ofrecer, el concepto de una cosa pen-sante sirve para trazar una distinción entre, por un lado, aquellas en-tidades cuya riqueza de procesos internos controladores de la con-ducta las hace agentes inventivos, adaptables y caprichosos, y, por otro lado, aquellas entidades pobres en ese tipo de procesos, cuya 

conducta, en correspondencia, es rígida, circunscrita y estereotipada. 

Emplearé la expresión profusamente adaptable para referirme a los procesos internos controladores de la acción de las entidades de la 

primera categoría. Los procesos internos de un organismo son profu-samente adaptables si dicho organismo puede hacer cosas como con-cebir planes, analizar situaciones, deliberar, razonar, explotar analo-gías, revisar creencias a la luz de la experiencia, sopesar intereses en

27 La conducta de la avispa cavadora está descrita en Wooldridge, D., The Machi-

nery of the Brain, p. 82; véase también Dennett, D.,  Elbow R oo m , p. 11).

Page 90: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 90/416

94 Inteligencia artificial Una introducción filosófica

conflicto, formular hipótesis y contrastarlas con los datos, tomar de-cisiones razonables sobre la base de información imperfecta, etc.Además, debe ser capaz de hacer estas cosas en la enorme compleji-

dad del mundo real, no sólo en un ámbito «de juguete» como el sen-cillo mundo de bloques de colores de Shrdlu28.

El concepto de ser pensante es ciertamente vago, pues no tenemosun criterio preciso de cuán adaptables deben ser los procesos internoscontroladores de la conducta de una entidad para merecer la distin-ción de ser pensante. Descendiendo por la escala evolutiva, hay un lí-mite en extremo borroso entre los organismos que claramente pien-san y los que no. Los chimpancés piensan y las larvas no, pero nadieestá seguro de qué decir de los cangrejos y las salamandras. (No esque el concepto de ser pensante esté en peor situación que otros.Compárese con la famosa e inútil pregunta de cuándo un cerro seconvierte en una montaña.) Sin embargo, la cuestión de la fronterainferior del concepto no debe perturbar nuestra discusión de si unamáquina puede pensar, pues no nos hemos de confinar ai caso de uncomputador cuyos procesos internos controladores de la conducta

cuadren más o menos con los nuestros en cuanto a adaptabilidad.Se puede argumentar que el concepto de pensar desempeña su pa- pel más importante en la explicación y predicción de la conducta. Unejemplo sencillo del tipo de explicación al que me refiero es éste: Juancome algas porque cree que eso le prevendrá de la calvicie. Estas ex-

 plicaciones explican la conducta en términos de lo que  el agenté piensa, y se contraponen a las explicaciones de la conducta formula-das directamente en términos de la actividad eléctrica de la corteza

cerebral del agente, o la bioquímica del hipotálamo, etc. Los filósofosllaman intencionales  las explicaciones de este tipo29. (Otro ingre-diente de una explicación intencional suele ser lo que el agente desea,en el caso de Juan, conservar el cabello.) Continuamente nos aplica-mos unos a otros este estilo de explicación. Explicamos y predecimoslas acciones de las personas por referencia a la información o mala in-

28 Compárese la caracterización que hace Donald Mitchie de la inteligencia hu -mana: «El intelecto humano se señala, no tanto por su especial brillantez en una tarea particular, como por su capacidad de hacer un intento pasable en casi cualquier cosa.En consecuencia, suspendemos el juicio sobre la idea de una máquina inteligente, a laespera de que aparezca una con la versatilidad y la capacidad de conducta integradoraque pedimos en nuestros semejantes.» On Machine Intelligence, p. 51.

19  Daniel Dennett ha popularizado el término «explicación intencional». Véase es- pecialmente  BrainstormSy  caps. 1 y 12.

Page 91: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 91/416

¿Puede pensar una máquina? 95

formación que poseen, las teorías o dogmas que suscriben, sus planes,metas, aversiones, intereses, etc. (Adviértase, de paso, que la explicación y la predicción son aproximadamente lo mismo. Una predicción: ella piensa que usted aún está enfadado con ella, así que es im

 probable que le visite. Una explicación: ella no le ha visitado porque piensa que todavía está enfadado con ella.)

La explicación y predicción intencionales de la conducta de nuestros congéneres viene facilitada por el hecho de que podemos hablarunos con otros sobre lo que pensamos y lo que deseamos. Sin duda,hay obstáculos para aplicar este estilo de explicación a las criaturas no

lingüísticas por la consiguiente falta de certeza sobre lo que piensan odesean. No obstante, está muy lejos de ser verdad que el alcance de laexplicación intencional esté restringido a la conducta humana. Estoes lo que escribe Jane Goodall sobre Figan, un joven chimpancé, yGoliath, uno de sus superiores jerárquicos adultos.

Un día, un rato después de que el grupo hubiera comido, Figan vio una banana que se les había pasado por alto, aunque Goliath estaba encima de ella.

Miró la fruta, y después de un rápido vistazo a Goliath, Figan se fue y sesentó al otro lado de la tienda, de modo que no podía ver la fruta... Quinceminutos después, cuando Goliath se levantó y se fue, Figan, sin dudarlo unmomento, fue y cogió la banana. Era evidente que se había hecho cargo de lasituación: si hubiera ido antes por la fruta, Goliath, casi con toda seguridad,se la habría quitado. Si’hubiera permanecido cerca de la banana, probablemente la habría mirado de vez en cuando: los chimpancés son muy rápidos

 para advertir e interpretar los movimientos oculares de sus congéneres, yGoliath, por tanto, probablemente habría visto la fruta. Así que Figan nosólo se abstuvo de satisfacer su deseo inmediatamente, sino que se retiró parano echar a perder sus oportunidades con una mirada a la banana30.

Ahora estamos en disposición de contestar nuestra pregunta principal. Un objetivo a largo plazo de la investigación en IA es producir

 programas profusamente adaptables. Supongamos que un día se consigue felizmente ese objetivo, y se posibilita la construcción de robots

30 Goodall, J.,  In the Shadow o f Man, pp. 95-6. Un escéptico preocupado porqueno podemos tener una confirmación verbal de Figan de que éste era, en efecto, su plan podría proponer una explicación alternativa más simple: Figan se marchó y olvidó el plátano, pero volvió a verlo cuando Goliath se fue. Sin embargo, se supone que Goodall defendería su análisis apilando más y más ejemplos hasta que fuera difícil oponersea su juicio de que Figan tenía capacidades de planificación.

Page 92: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 92/416

96 Inteligencia artificial. Una introducción filosófica

cuyos procesos internos controladores de la acción cuadran más omenos, en cuanto a adaptabilidad, con los nuestros (y sólo el tiempodirá si se puede hacer esto). ¿Cuál podría ser la razón de negar que

estos robots piensan? Desplegarían toda la versatilidad, ingenio y propósito que nosotros. Es más, sus conductas serían resultado deque sus programas hicieran el tipo de cosas que, cuando nosotros  lashacemos, describimos como analizar situaciones, formar planes, ra-zonar, buscar analogías, hacer conjeturas, valorar propuestas, tomardecisiones, etc. (pues esto es lo que configura la adaptabilidad pro-fusa). Mientras estemos dispuestos a describir estas cosas en los mis-mos términos cuando las haga Un artefacto, todo el marco de la expli-

cación intencional se podrá aplicar a robots de este tipo. En efecto, silos robots son capaces de dar expresión verbal a sus metas, informa-ción, planes, o lo que sea, estaremos, como hemos visto, en mejor po-sición para dar explicaciones intencionales de su conducta que la quetenemos ahora en el caso de nuestros parientes biológicos más próxi-mos, los primates superiores.

Está claro, pues, que los objetivos para los cuales empleamos eltérmino «pensante» están mejor servidos si la comunidad lingüísticadecide incluir estos robots entre las cosas pensantes. Esto completami argumento en favor de la afirmación del comienzo de este capí-tulo: no hay ningún error conceptual en la afirmación de que futurosartefactos pueden, literalmente, pensar.

Page 93: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 93/416

Capítulo 4

LA HIPÓTESIS DEL SISTEMA DE SÍMBOLOS

Hemos visto que no hay nada conceptualmente aberrante en afir

mar que futuros artefactos pueden ser capaces de pensar. Si podemos

dotar a un computador de procesos internos controladores de la con

ducta tan profusamente adaptables como los nuestros, entonces diríamos que el computador piensa. Sin embargo, éste es un «sí» monu

mental: ¿hay alguna razón para pensar que tal cosa es posible? En

otras palabras, ¿hay alguna razón para creer que los computadores

son el tipo adecuado de máquina? Al fin y al cabo, hay muchos arte

factos eléctricos que son claramente inapropiados para pensar: aspira

doras, radios, cepillos eléctricos de dientes, entre otros. ¿Hay alguna

razón para creer que los computadores digitales son mejores can

didatos?Alguna gente encuentra obvio sin más que los computadores tie

nen el potencial necesario para pensar. Pero no es obvio. Quienes dan

 por hecho que los computadores son el tipo adecuado de máquinacapaz de pensar, probablemente están hechizados por la imagen de

ellos que han creado los escritores de ciencia-ficción, los cineastas y

los publicitarios. No olvidemos que la humilde centralita telefónica

 —la perla tecnológica de una época pretérita— fue tomada en tiem

 pos como prototipo «evidente» de máquina pensante. También había

97

Page 94: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 94/416

98 Inteligencia artificial. Una introducción filosófica

 personas que opinaban que era un «cerebro artificial». (La idea eraque un cerebro natural es una centralita que dirige los mensajes quetransportan los cables telefónicos del sistema nervioso a sus recepto

res naturales. A través del cerebro, el estómago marca el número delos músculos del diafragma y chilla: «¡Vomita!».)

Para afrontar en serio la pregunta de si un computador es el tipoadecuado de máquina capaz de pensar, debemos considerar qué género de máquina es un computador. ¿Qué hace exactamente? (La res

 puesta a menudo sorprende a los legos.) Una vez aclarado esto, podremos enunciar el supuesto fundamental de la corriente dominanteen IA, la hipótesis del sistema de símbolos (sección 4.6) h Compen

diada, ésta es la posición según la cual el computador es  el tipo adecuado de máquina capaz de pensar. En el capítulo 5 examino los indicios en favor de esta hipótesis, y en el capítulo 6 valoro un intentoreciente de demostrar que la hipótesis es falsa. La cuestión de si loscomputadores son el tipo adecuado de máquina capaz de pensarvuelve a aparecer al final del libro, donde presento una aproximaciónradicalmente nueva a la IA conocida como proceso paralelo distri

 buido. Los defensores de este enfoque se desmarcan de la hipótesisdel sistema de símbolos, y se ocupan de construir tipos de hardware (componente físico) heterodoxos inspirados en el tejido neuronalhumano.

Unas palabras de aliento. Varias secciones de este capítulo contienen montones de ceros y unos. Si eso le da mareos, no se preocupe.Quienes prefieran ahorrarse los detalles técnicos deberían leer la sección 4.1 y pasar directamente a la sección 4.6, con un vistazo interme

dio a la 4.5.

4.1. Manipulación de símbolos

Un computador es un manipulador de símbolos: lo único quehace es barajar símbolos de acuerdo con las instrucciones de su programa. Los símbolos que manipulan los computadores comerciales1

1 La hipótesis recibió su nombre de Alien Newell y Herber t Simon en «ComputerScience as Empirical Inquiry: Symbols and Search». (La llamaron «hipótesis del sistema de símbolos físicos», pero he quitado el «físicos» para mayor comodidad.)Véanse también Simon y Newell, «Information-Processing in Computer and Man»; Newell, «Physical Symbol Systems» y «The Knowledge Level»; y Lenat, D. B. y Fei-genbaum, E. A., «On the Threshold of Knowledge».

Page 95: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 95/416

La hipótesis del sistema de símbolos 99

están formados eléctricamente, de una manera que explicaré ense-guida. Por el momento es útil pensar en los símbolos como filas de

ceros y cruces escritas en hojas de papel lineado, así:

X X O X

X 0 0 X

0 0 0 X

0  o x x

He aquí algunos ejemplos de las manipulaciones de símbolos que

los computadores realizan.

• Sacar una copia de los símbolos de una línea en otra línea espe-cificada.

• Borrar cualquier símbolo que aparezca en una línea especi-

ficada.

• Escribir una sucesión de símbolos en una línea especificada.

• Identificar los símbolos que aparecen en una posición particu-

lar. Por ejemplo, se le puede decir a la máquina que revise lahoja en sentido descendente y busque los tres primeros símbo-

los de cada línea, para detenerse cuando encuentre la combina-

ción 000.

• Comparar los^ símbolos que aparecen en dos líneas especifica-

das. Esta operación se puede emparejar con la instrucción de

escribir una cruz en otra línea si los dos grupos de símbolos

son diferentes y escribir un cero si son iguales.

• Dar nombre a una línea particular con un grupo de símbolosespecífico. Un medió sencillo de que la máquina haga esto es

escribir los símbolos del nombre al comienzo de la línea.

F i g u r a  4.1. Un registro

Page 96: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 96/416

100 Inteligencia artificial Una introducción filosófica

Las operaciones como éstas se denominan manipulaciones funda-mentales (o «primitivas») de símbolos. Un computador es un ingeniomanipulador de símbolos con la capacidad de realizar cierta lista de

operaciones fundamentales. La definición completa se da en la sec-ción 4.5.

4.2. Símbolos binarios

Los computadores comerciales manipulan sólo dos símbolos bá-sicos, conocidos umversalmente como bits  (de dígitos bin arios). Por

convención, estos símbolos se escriben en los papeles y pizarrascomo «0»  y   «1». En ciertos aspectos, esta convención es desafortu-nada, pues provoca la falsa impresión de que los símbolos básicos sonexclusivamente matemáticos. Los dos símbolos básicos se podríanhaber escrito como un redondel y una cruz (o incluso «\» y  «?»: cua-lesquiera dos marcas fáciles de discriminar habría servido).

El computador mismo, naturalmente, no manipula marcas de pa- pel de ningún tipo: los símbolos tienen una realización eléctrica. Estose hace habitualmente por medio de elementos biestables o flip~flops> llamados así porque saltan  y  caen (flip y flop, en inglés) entre dos es-tados. Es útil concebir los elementos biestables como interruptoresdiminutos que tienen exactamente dos posiciones: activo e inactivo2.Un elemento biestable activo «cuenta» como un caso del símbolo 1, einactivo, como un caso del símbolo 0. Los elementos biestables estánorganizados en filas, llamadas registros. El registro de la figura ante-

rior consta de cuatro elementos biestables. El registro representado«contiene» la cadena de bits 0001.

Los computadores pasan el tiempo haciendo cosas como copiar elcontenido de registros de almacenamiento (o «memoria») en regis-tros operativos, comparar los contenidos de diversos registros opera-tivos, y llenando más registros con símbolos que indican el resultadode las comparaciones. Las secciones 4.3 y 4.4 contienen ejemplos decómo se compaginan estas operaciones para realizar tareas útiles.

Toda computación depende del hecho de que los dos símbolos básicos se pueden combinar para componer símbolos, igual que lasletras del alfabeto se componen para formar palabras y oraciones.

2 Un elemento biestable consta generalmente de un par de transistores.

Page 97: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 97/416

La hipótesis del sistema de símbolos 101

Los programadores usan estos símbolos compuestos para representarcualquier cosa: letras, oraciones, números, objetos reales, relacionesentre objetos, etc. El resto de esta sección resume cómo se hace esto.

 Representación de letras y otros caracteres

Cuando escribo una A mayúscula con el teclado de mi compu-tador, los circuitos internos producen automáticamente la cadena de

 bits 1000001. Éste es el código interno de mi computador para la A.Alguien se podría preguntar qué hace que este símbolo compuesto

sea una A en vez de una Z o un signo de interrogación. La simpleconvención. Como en el código Morse, no hay ninguna relación «na-tural» entre las cadenas de bits y los caracteres que representan3. Laindustria de los computadores usa, de hecho, dos sistemas convencio-nales diferentes para correlacionar cadenas de bits con letras y otroscaracteres, el sistema ASCII, del que he tomado el ejemplo, y el sis-tema EBCDIC. (Los nombres son acrónimos de «American Standard

Code for Information Interchange» y «Extended Binary Coded De-cimal Interchange Code». ASCII se pronuncia generalmente «asci».)En el sistema EBCDIC la letra A es 11000001.

Para almacenar una representación ASCII de la oración «El gatoestá en la alfombra», un computador necesitaría 28 registros de siete

 bits. (Los símbolos ASCII individuales siempre tienen siete bits.) Losdos primeros registros contendrían los códigos ASCII para «E» y«1», el tercero, el código para el espacio (que es 0100000), etc. El re-

gistro final contendría el código ASCII para el punto final.

 Representación composicional 

Examinemos de nuevo el código ASCII para la A: 1000001. Si preguntáramos qué significa la primera mitad de la cadena, 1000, la

3 En el caso de los caracteres que van de «0» a «9», los valores ASCII no son tanarbitrarios como otros aspectos del sistema. Los códigos de los caracteres numéricos sehan elegido de modo que si les restamos el código del carácter «0» obtenemos el nú-mero binario correspondiente. (Se explican los números binarios en esta misma sec-ción). Por ejemplo, el código ASCII de «3» es 0110011 y de «0» es 0110000. Restando,tenemos 0000011, que es el número tres en base dos. (El Morse se ajusta un poco a lafrecuencia de las letras; así, el código de «E» es más simple que el código de «Q», porejemplo.)

Page 98: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 98/416

102 inteligencia artificial. Una introducción filosófica

respuesta es «nada». Las  partes de este símbolo compuesto particularcarecen de significado. Esto es lo que frecuentemente ocurre tambiéncon las palabras comunes. Las tres primeras letras de «animal» no

forman un símbolo significativo, y aunque la cadena «mal» aislada,tiene significado no lo tiene en absoluto dentro del contexto «mal».Esto contrasta con el caso de «malhablado», donde el significado delsímbolo está «construido» a partir de los significados de las subcade-ñas «mal» y «hablado».

Un símbolo composicional es un símbolo compuesto que tiene partes significativas, y cuyo significado global está determinado porlos significados de esas partes (junto con otros factores, tales como elorden en que aparecen las partes). «Malhablado» es un símbolo com

 posicional, «oso», «vejiga» y el código ASCII para la A no lo son.Las oraciones de los lenguajes naturales son ejemplos arquetípicos desímbolos composicionales. El significado de, por ejemplo, «Juanse emborrachó y se cayó» es, claro está, una función de las palabrascomponentes.

En ausencia de símbolos composicionales, núestros lenguajes ha

 blados y escritos serían oscuros y pobres. Los usuarios de los lengua jes composicionales son capaces de construir una cantidad ilimitadade expresiones complejas portadoras de información a partir de unacervo manejable de otras expresiones básicas. La composicionalidadtambién es valiosa en la computación y los programadores hacen am

 plio uso de símbolos composicionales.Por vía de ejemplo, consideremos un sistema binario para repre

sentar las relaciones entre los miembros de un grupo de veinte perso

nas. Las «palabras» básicas del sistema son cadenas de seis bits (estascadenas básicas no son composicionales). He seleccionado veinte deestas cadenas al azar para usarlas como «nombres» de las personas delgrupo.

Expresiones nominales

000000 refiere a Jorge .000001 . María000010 . Isabel

Page 99: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 99/416

La hipótesis del sistema de símbolos 103

Las cadenas restantes se usan para representar relaciones.

Expresiones relaciónales

l i l i l í  madre de011111  padre de101111 hermano más joven de110111 hermana mayor dei l i o n tío favorito de111101  jefe del i m o limpiador de cristales de

Usaré el término identificador   para una expresión nominal concualquier número (incluido cero) de expresiones de relación a su izquierda. He aquí algunos ejemplos de identificadores, con sus signifi

cados.

000000 Jorgem i l i   000000 madre de Jorge

101111   n u n   000000 hermano más joven de la madre deJorge

Todos los identificadores que constan de más de una cadena son

símbolos composicionales (Nótese, de paso, que los identificadoresnos pueden llevar más allá del grupo originario de veinte personas.La madre de Jorge puede o no ser uno de los veinte a los que se lesasignaron expresiones nominales.)

A fin de usar este sistema para representar información (tal como«Isabel es la madre de Jorge» y «la madre de Jorge es la hermána mayor de María») necesitamos un medio de indicar que dos identificadores se refieren a la misma persona. Para esto una convención sencilla es yuxtaponer los dos identificadores. Así, una cadena de laforma «identificador identificador» se entiende como la aserción deque los dos identificadores se refieren a uno y el mismo individuo.Llamemos a las cadenas con esta forma enunciados.  (Recordemos quetodo identificador termina con una expresión nominal, así que nuncaes ambiguo dónde termina el primer identificador y empieza el se-

Page 100: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 100/416

gundo.) El siguiente enunciado dice que la madre de Jorge es la hermana mayor de María:

lililí 000000 110111 000001

Este sistema se puede emplear para construir un número ilimitadode enunciados diferentes. Quizá les apetezca construir los enunciadosque representan estos dos hechos. Las respuestas se dan en la nota 4.

La madre del jefe de Jorge es el abogado de María.La madre de la madre de Isabel es la hermana mayor del padre de Jorge.

104 Inteligencia artificial. Una introducción filosófica

 Recursion

Como hemos visto, cada identificador es, o bien una expresiónnominal simple o bien está compuesto a partir de otros identificado-res de acuerdo con la regla: para crear un identificador se coloca unaexpresión de relación antes de un identificador. Las reglas de este género se llaman reglas gramaticales. Las reglas gramaticales especificanlos medios permisibles para construir los símbolos compuestos de unlenguaje (o minilenguaje, como el caso presente). La regla gramaticalde los identificadores se puede escribir con más claridad como sigue(«+» significa «seguido de» y «=» significa «consta de»):

identificador = expresión relacional + identificador 

Esta regla parece un poco circular, porque los identificadores sedefinen en términos de identificadores (imaginemos a alguien tratando de explicar lo que significa «ser humano» diciendo que un serhumano es el nacido de un ser humano). Sin embargo, la circularidadcontenida en la regla es en realidad inocua. La regla del identificadorno nos tiene indefinidamente dando vueltas en círculo. Por el contrario, nos sitúa en una espiral descendente que aterriza en las expresio

nes nominales. Al final, la regla define los identificadores compuestosen términos de las expresiones relaciónales y las expresiones nominales, y no hay nada circular en eso, pues lo que es una expresión nomi-

4 m u i í n i o i oooooo l i m o oooooi.

l i l i l í l i l i l í 000010 110111 011111 oooooo.

Page 101: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 101/416

105

nal se ha especificado independientemente (por medio de una listacompleta de las expresiones nominales del minilenguaje). La formahabitual de representar la «espiral descendente» que entrañan las re-

glas de este tipo es a través de un diagrama parecido a un árbol inver-tido (fig. 4.2). Empezando con el identificador de la cabeza del dia-grama, repetidas aplicaciones de la regla del identificador acaban porconducir hasta una expresión nominal (el diagrama se llama un árbol  de descomposición).

La hipótesis del sistema de símbolos

F i g u r a  4.2.  Recursion

Las reglas gramaticales que, como la regla del identificador, con-tienen la misma expresión a ambos lados, se llaman recursivas. Se diceque los símbolos construidos de acuerdo con una regla gramatical re-cursiva tienen una estructura recursiva.

Los conceptos de estructura recursiva y de composicionalidadconvienen como mano y guante. La recursion se refiere a la forma-ción de un símbolo a partir de componentes; la composicionalidad serefiere a la formación del significado de un símbolo a partir de los sig-nificados de sus componentes. La estructura recursiva y la composi-cionalidad, unidas, dan a un código simbólico binario la capacidad derepresentar una variedad interminable de información relativa almundo.

 Representación de números

La mayor parte del interés inicial por los computadores se centróen su potencial matemático y, debido a esto sobre todo, se escribie-

Page 102: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 102/416

106 Inteligencia artificial. Una introducción filosófica

ron los bits «0» y «1». En los primeros tiempos de la IA fue para losinvestigadores una ardua lucha desmontar la imagen dominante deque los computadores son «meros mascanúmeros», y tuvieron, que

insistir en que las cadenas de bits se pueden usar para representarcualquier cosa, no sólo números. Con la misma intención he dejado

 para el final el tema de la representación numérica.En la escuela nos enseñan la aritmética en el llamado sistema de

 base 10. En el sistema de báse 10 hay diez símbolos «no estructura-dos» o «primitivos», de «0» a «9». Los demás símbolos numéricos secomponen a partir de éstos. El sistema de base 10 no es sacrosanto.La tradición nos pudo igualmente haber llevado al sistema de base 12,en el cual hay doce símbolos primitivos: de «0» a «9» y otros dosmás, quizá # para el 10 y para el 11. En la base 12, los símboloscompuestos empiezan en el doce en vez de en el diez.

Los modernos computadores hacen aritmética en base 2 (aunquealgunas máquinas antiguas, por ejemplo la ENIAC, usaban la base10). La base 2 se conoce también como sistema numérico binario. Enla base 2 hay dos símbolos primitivos, y la composición empieza con

el número dos. He aquí algunos símbolos del sistema de base 2, juntocon los números que representan.

 Números binarios

0 cero 110 seis1 uno 111 siete

10 dos 1000 ocho

11 tres 1001 nueve100 cuatro 1010 diez101 cinco

La manera de pasar de base binaria a base 10 es pensar que cada bit de la cadena apunta hacia una caja (fig. 4.3). La caja del extremoderecho de una fila siempre contiene un 0 o un 1. La caja siguiente

 por la izquierda siempre contiene un 0 o un 2. La tercera caja conten-drá o bien un 0 o bien 22, y la cuarta 0 ó 23. Si hay una quinta caja,contendrá o bien 0 o bien 24, y así sucesivamente hasta acabar con los

 bits de la cadena. Si un 0 apunta hacia una caja, eso significa que con-tiene la primera de las dos posibilidades, un 0. Si le apunta un 1, en-tonces contiene la otra posibilidad. La figura 4.4 muestra cómo se lle-nan las cajas correspondientes a 1001.

Page 103: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 103/416

La hipótesis del sistema de símbolos 107

1 0 0 1

FIGURA 4.3,  Imagine que cada dígito binario apunta hacia una caja

Finalmente, para obtener el número en base 10 representado poruna cadena de bits, basta con sumar los números de las cajas. En el

ejemplo la respuesta es, naturalmente, 9. Quizá le apetezca ensayar

con un par más de cadenas de bits y averiguar qué números represen-

tan en base 10,

8 0   0   1

FIGURA 4.4. Cada caja contiene un número en base 10

 Alternativas a los números binarios

La definición general de computador que se dará en la sección 4.5no menciona los símbolos binarios, y de ningún modo es esencial

 para el concepto de computación simbólica el uso de un código bina-

rio. Como ya he mencionado, algunas máquinas antiguas usaban el

sistema de base 10. Esto requiere diez símbolos primitivos. Se necesi-

tan aparatos de hardware  con diez estados distintos para instanciar

estos símbolos en la máquina. En comparación con los elementos

 biestables, estos aparatos son complicados y, por tanto, caros. La re-

lativa simplicidad de la ingeniería de los dos estados es lo que ha con-

ducido a la manufactura de computadores a optar por los símbolos

 binarios.

Las observaciones generales que he hecho en esta sección sobre

los códigos binarios valen para cualquier código simbólico que puedausar un computador. Cualquier código composicional estructurado

Page 104: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 104/416

108 Inteligencia artificial. Una introducción filosófica

recursivamente es capaz, en principio, de representar cualquier infor-mación que se pueda enunciar en un lenguaje natural La estructurarecursiva y la composicionalidad son las claves de la computación

simbólica. Sin ellas no se podría hacer ninguna computación seria.

4.3. Los programas como símbolos

Los programas para computadores se escriben en lenguajes de programación que poseen cierta semejanza con una lengua natural(puede que le interese echar un vistazo al programa en BASIC pre-sentado en la sección 2.1). Sin embargo, en el momento en que el

 programa entra en la memoria del computador, ha tomado la formade cadenas de bits. La conversión inicial en bits tiene lugar en el te-clado del computador, donde, conforme se va tecleando el programa,cada carácter es traducido automáticamente a código ASCII. Despuésesta versión del programa se reorganiza y recodifica para satisfacerlos requisitos de la máquina empleada. Esto lo hace un sistema in-

terno llamado compilador. Una vez compilado el programa, se alma-cena en la memoria hasta que la máquina recibe la instrucción de eje-cutarlo. (Los lenguajes de programación parecidos a lenguasnaturales, y la conversión binaria automática en el teclado son lujosmodernos. Alan Turing y sus colegas tenían que escribir laboriosa-mente sus programas en notación binaria.)

En esta sección pretendo dar la visión que el computador tiene deun programa. Primero escribiré un programa sencillo en un lenguaje

de programación parecido al lenguaje natural, y luego mostraré el as- pecto que tiene el programa cuando ha pasado por el compilador.

El programa está escrito en lenguaje ensamblador. Este es un len-guaje que hace referencia directa a las operaciones fundamentales delcomputador, tales como comparar  y copiar   (se dio una lista de lasoperaciones fundamentales en la sección 4.1). El lenguaje ensambla-dor difiere considerablemente de los lenguajes de programación máscomunes, como LISP, Pascal BASIC, Prolog y Fortran. Éstos, lla-mados «lenguajes de alto nivel», permiten al programador referirse asecuencias complejas de operaciones fundamentales por medio deinstrucciones simples (tales como «multiplicar», «encontrar», «repe-tir hasta»). Cuando el compilador halla una de estas instrucciones,automáticamente la sustituye por la lista apropiada de operacionesfundamentales. Como el compilador hace esta árida tarea, programar 

Page 105: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 105/416

La hipótesis del sistema de símbolos 109

en lenguajes de alto nivel es mucho menos tedioso que hacerlo enlenguaje ensamblador. La razón de usar aquí lenguaje ensamblador esque los programas escritos con él ponen al descubierto las accionesfundamentales de la máquina.

La función de mi pequeño programa es comparar los contenidosde dos registros y luego informar a la persona que está en la terminalde si los registros contienen o no la misma cadena de bits. Si encuentra en ambos la misma cadena, el programa envía el mensaje «SI» a laterminal, y si encuentra cadenas diferentes, envía el mensaje «NO».Antes de presentar el programa explicaré las instrucciones que usa.

Comparar 

Esta operación compara el contenido de dos registros. En la instrucción se incluyen los nombres de los registros (véase la línea 1 del programa). Si los contenidos de los registros son idénticos, la máquina escribe un 1 en un registro especial de un bit llamado registro

comparación. Si las dos cadenas son diferentes, el registro de comparación se pone a 0.

 Ramificar 

Las instrucciones de ramificación son la contrapartida en lenguajeensamblador de las diversas instrucciones $i-entonce$ que se hallan enlos lenguajes de alto nivel. En este capítulo introduciré tres instrucciones de ramificación. La primera es la instrucción de ramificar-en-0(véase línea 2 del programa). Al encontrar esta instrucción, la máquina inspecciona el contenido del registro de comparación. Si encuentra un 1, la máquina simplemente pasa a la línea siguiente del

 programa. Si encuentra un 0, la máquina salta a la línea cuyo númerose cita en la instrucción ramificar. Después describiré los otros tipos

de instrucciones de ramificación: ramificación incondicionada y ramificación relativa. La ramificación da al computador la capacidad deelegir entre alternativas (el programa que vamos a examinar «elige»entre decir «SÍ» o «NO»). En el capítulo 7 trata de contestar a la pregunta de si se puede decir que tal elección —cuando es lo bastantecompleja—, es libre.

Page 106: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 106/416

no Inteligencia artificial. Una introducción filosófica

Sacar como carácter 

Está instrucción va seguida por el código ASCII de cualquier

carácter que sea la salida (véase la línea 3). Convierte la cadena de bits ASCII en un carácter, en la impresora o en cualquier instrumento de salida que se esté usando. En la sección siguiente se introduce una instrucción de salida ligeramente distinta; en vez de producir un carácter predeterminado, imprimirá lo que contenga unregistro especificado (el resultado de un cálculo matemático, porejemplo).

He aquí el programa.

1 Comparar registro 1 registro 2 La máquina compara el contenido de estos registros y pone  bien un 0 o bien un 1 en el registro de comparación (1 para la coincidencia, 0 para la no coincidencia).

2 Ramificar-en-0 6Si el registro de comparación está en 0, la máquina salta las lí-neas 3, 4 y  5.

3 Sacar-como-carácter 1001111 Éste es el código A SC II de la letra «O»,

4 Sacar-como-carácter 1001011 Éste es el código ASC II de la letra «K».

5 Ramificar 8 Ésta es la instrucción incondicional de ramificación. Dice a la máquina que salte las líneas 6 y 7. Sin esta instrucción, la má-

quina imprimiría OKNO .6 Sacar-como-carácter 1001110

 Éste es el código de la letra «N».7   Sacar-como-carácter 1001111

 Éste es el código de la letra «O».8 Parar 

Este programa es, desde luego, extremadamente trivial. Podría ser

un diminuto paso de un programa que sirviera para algo. Un programa de IA entraña por lo general cientos de miles de operacionesfundamentales.

Cuando el programa pasa por el compilador, todo se convierte en bits, excepto los números de línea, que son desechados. (Los números de línea son convenientes, sobre todo para los programadores, y

Page 107: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 107/416

La hipótesis del sistema de símbolos m

no los necesita la versión compilada del programa.) Éste es el aspectodel programa una vez compilado.

00000011  1  1000000100  10101

00000101  1001111

00000101  1001011

00000110  11001

00000101  1001110

00000101  1001111

00000001

Mirando la primera línea del programa compilado, podemos verque el término «registro 1» ha sido reemplazado por el número binario 1, y «registro 2» por 10 (que, recordemos, es 2 en binario). La palabra de órdenes «comparar» ha sido sustituida por una cadena de bits, como todas las palabras de órdenes del programa. La tabla siguiente da las correlaciones.

Operación Código en bitsComparar 00000011Ramificar-en-0 00000100Ramificar incondicionalmente 00000110Sacar-como-carácter 00000101Parar 00000001

Como en el caso de los códigos ASCII, las correlaciones son puramente convencionales. Los diferentes fabricantes de ordenadoresusan diferentes códigos binarios para designar las mismas operaciones fundamentales.

El programa compilado se almacena también en registros. (Todala memoria interna del computador consta de registros.) Cada «pedazo» de una instrucción tiene su propio registro5. Así, la primera línea del programa se almacena en tres registros, y el resto de las líneas

5 A veces se necesitan varios registros para almacenar un solo «fragmento». Porejemplo, un computador cuyos registros tengan una capacidad máxima de 8 bits habráde emplear dos registros para emplear el número binario de 9 bits 100001111. La capacidad del registro varía de un computador a otro. Las máquinas pequeñas usan registros de 8 ó 16 bits, mientras que las más potentes emplean registros de 32 o de 64 bits.

Page 108: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 108/416

112 Inteligencia artificial Una introducción filosófica

en dos, excepto la última, que sólo necesita uno. Los registros delcomputador van numerados (como las casas de una calle). El númerode un registro es su dirección. Cuando el compilador ha averiguado

cuántos registros se necesitan para contener el programa, busca un bloque de memoria del tamaño preciso  y  almacena el programa. Su- pongamos que el compilador asigna a nuestro programa los registros10 a 25. La figura 4.5 muestra el resultado.

Si le ha intrigado qué les ha ocurrido a los números de línea del programa correspondientes a las dos instrucciones de ramificación,ahora lo verá claro. El compilador ha reemplazado astutamente el número de línea de cada instrucción de ramificación por la dirección bi

naria del registro que contiene la instrucción a la cual conduce la ramificación. La línea 2 del programa, que originalmente era unaramificación que conducía a la línea 6, ahora es una ramificación queconduce al registro 21 (21 es 10101 en código binario). Igualmente la

10

11

12

13

14

15

16

17

18

19

20 

21

22

23

24

25

00000011

1

10

00000100

10101

00000101

1001111

00000101

1001011

00000110

11001

00000101

1001110

00000101

1001111

0000001

línea1

línea2

línea3

línea4

línea5

línea6

línea7

línea8

FIGURA 4.5.  Almacenamiento en la memoria del programa compilado

Page 109: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 109/416

La hipótesis del sistema de símbolos 113

línea 5 es ahora una ramificación que conduce al registro 25 (11001en código binario).

Cuando se ejecuta el programa, los símbolos contenidos en estos

registros son transferidos, un registro cada vez, a la unidad procesa-dora central de la máquina. Ésta contiene un registro especial llamado«registro de la instrucción». En la primera transferencia, los símbolosdel registro 10 —el código binario de comparar  — entran en el registro de la instrucción. El procesador central está «cableado» para reaccionar ante la presencia de este patrón de encendidos y apagados desu registro de instrucciones ejecutando una comparación, y automáticamente se llevan a las direcciones de los registros que han de ser

comparados los contenidos simbólicos (que se transfieren a otros registros dentro del procesador central) de los dos siguientes registros.Una vez completada la comparación, se traslada la siguiente instrucción al registro de instrucciones, y así sucesivamente.

El procesador central conserva la pista de los programas por medio del contador de programas. La función del contador de programas es «apuntar» hacia la siguiente carga de símbolos que ha de ser

transferida desde un registro. El contador de programas es sencillamente un registro. Contiene una dirección, a saber: la dirección de lasiguiente carga de símbolos que hay qüe transportar. Antes de comenzar la ejecución, se coloca en el contador la dirección de la primera instrucción del programa, y después de cada transferencia seaumenta en uno automáticamente la dirección contenida en el contador. Cuando los símbolos transferidos son instrucciones de ramificación, cambia el procedimiento. El cableado del procesador central

está dispuesto de manera que, si entra en el registro de instruccionesuna ramificación incondicional, se transfiere la siguiente carga desímbolos al mismo contador de programas. Estos símbolos son, naturalmente, la dirección binaria del registro que contiene la instruccióna la que conduce la ramificación. En el caso de una instrucción de ra-mificar-en-0, la transferencia procede de este modo sólo cuando elregistro de comparación contiene un 0. Si el registro de comparacióncontiene un 1, el contador de programas se incrementa en dos, con el

resultado de que «apunta» hacia el registro que contiene la siguienteinstrucción.

Este procedimiento de almacenar programas dentro de la máquina en forma de cadenas de bits fue uno de los mayores avancesde los primeros años de la informática. Marca la diferencia entreENIAC, que había que volver a cablear para cada nuevo cálculo, y

Page 110: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 110/416

11 4 Inteligencia artificial. Una introducción filosófica

las máquinas como el  Mark I   de Manchester y el IBM SSEC, quefueron los primeros ordenadores de programa almacenado.

4.4. Un programa de principio a fin

El principal objetivo de este capítulo es explicar en qué consiste lacomputación simbólica. Para facilitarlo voy a mostrar un programamás complicado en lenguaje ensamblador. El programa suma núme-ros binarios. Examinar el programa tiene tres fines.

1. Presentar otras pocas operaciones fundamentales de manipu-lación de símbolos.2. Mostrar cómo se puede «construir» una nueva operación —la

adición, en este caso— a partir de operaciones fundamentales.3. Poner de relieve que la computación consiste en la manipula-

ción de cadenas de símbolos.

He aquí las nuevas operaciones fundamentales que usaremos.

(Las dos últimas no aparecen en el programa mismo, pero se necesi-tan en los ejercicios del final de esta sección.)

 Borrar 

Elimina el contenido de un registro y lo llena de ceros. El pro-grama comienza con una serie de borrados para asegurarse de que to -

dos los registros que va a emplear están vacíos. El proceso se conocecomo «inicializar» un registro.

Salida

Envía el contenido de un registro especificado a la impresora (uotro aparato de salida).

 Entrada

Toma una línea tecleada como entrada y la almacena en un regis-tro especificado.

Page 111: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 111/416

La hipótesis del sistema de símbolos

CompararR

115

Es igual que «comparar», salvo porque solamente se comparan

los bits situados en los extremos derechos de dos registros especificados. Si los bits son idénticos, el registro de comparación toma el valor1, y si son diferentes, el 0.

Cambiar 

Cambia todo lo que hay en un registro especificado un lugar ha

cia la derecha. El bit del extremo derecho «se cae» y se pierde. Seañade un cero en el extremo izquierdo del registro. Por ejemplo, elresultado de cambiar 0101 es 0010.

 Escribir 

Escribir un símbolo especificado en un registro especificado. Elsímbolo se escribe en el extremo izquierdo, y el resto corre un lugarhacia la derecha. El bit del extremo derecho se cae. Así, el resultadode escribir 1 en un registro que contiene 0000 es 1000. El resultado deescribir 1 por segunda vez es 1100. Cuando el registro ha sido inicia-lizado, los bits que se caen son ceros sobrantes (si está a punto de

 perderse un bit distinto de los ceros suministrados en la inicializa-ción, el tamaño del registro aumenta, esencialmente añadiendo a la

derecha un registro más).

Copiar 

Copia el contenido de un registro en otro (el contenido previo delregistro destino se borra automáticamente). La forma de la instrucción es copiar registro x registro y . Sin embargo, la instrucción no co

 pia el contenido del registro x en el registro y. En vez de hacerlo, lossímbolos almacenados en los registros x e y se tratan como direccio-

nes de los registros de y en que se copia. Así, si el registro 1 contieneel número 5 (en binario, por supuesto), y el registro 2 contiene el número 8, la instrucción copiar registro 1 registro  2 hace que el contenido del registro 5 se copie en el registro 8. Este rodeo se conoce

Page 112: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 112/416

116 Inteligencia artificial Una introducción filosófica

como direccionamiento indirecto; la ventaja es que el programa puede, mientras está siendo ejecutado, llenar o cambiar las direccio-nes del origen y el destino de la copia6. Se le pondrá de manifiesto la

necesidad de este recurso si es usted lo bastante intrépido para inten-tar resolver el segundo de los ejercicios del final de esta sección.

 Ramificar 

La Rramificación, o ramificación relativa, entraña el direcciona-miento indirecto. La instrucción  Rramificar registro x   hace que lamáquina vaya a la instrucción cuya dirección se almacena en el regis-tro x. Puesto que el contenido del registro x se puede modificar du-rante la ejecución, el programa mismo puede «inscribir» el destino dela ramificación. De esta forma, el programa se puede modificar a símismo durante la ejecución.  Rramificar   se puede, de hecho, «cons-truir» a partir de copiar   y ramificar . (Si quiere intentar la construc-ción, más avanzada esta sección encontrará algunas pistas).

Las reglas para sumar números binarios son mucho más simplesque las reglas de nuestro cotidiano sistema de base 10. Como en la base 10, se emplea la idea de «llevarse». Por ejemplo, si estamos ayu-dando a un niño a sumar 37 y 25, en primer lugar le diremos «Pri-mero sumas 7 y 5, escribes 2 y te llevas 1, luego sumas 3 y 2 y luegosumas el 1 que te llevabas.»

Las reglas para la suma binaria son: 0 más 0 es 0; 0 más 1 és 1;1 más 1 es 0 y se lleva 1. Puede que le interese comprobarlo con este

ejemplo (comience por la columna de la derecha).

1100

+111011010

Las dos primeras columnas son simples. La tercera columna pro-duce que nos llevemos 1. El razonamiento para la cuarta columna

 procede así: 1 más 1 es 0 y nos llevamos í, luego sumamos el 1 proce-dente de la tercera columna y nos da 1. Finalmente, el 1 que nos lle-vamos de la cuarta columna se escribe a la izquierda.

6 Véase nota 19 del capítulo 1.

Page 113: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 113/416

La hipótesis del sistema de símbolos 117

La parte delicada de diseñar un programa para sumar es tener encuenta el 1 que nos llevamos. El método más simple es almacenarlo,si lo hay, en un registro de un bit (el de lo que nos llevamos), y usar

un conjunto de reglas de adición cuando no nos llevamos nada de lacolumna anterior, y otra diferente en caso contrario. Los dos conjun-tos son los siguientes:

Conjunto A. Cuando el registro de llevar contiene un 0.

0 + 0 = 0 '0+ 1 = 1 y no cambiar el registro de llevar.1 + 0 = 1 .1 + 1 = 1 y cambiar el registro de llevar de 0 a 1.

Conjunto B. Cuando el registro de llevar contiene un 1.

0 + 0 = 1 y cambiar el registro de llevar de 1 a 0.0 + 1=0

1 + 0 = 0 y no cambiar el registro de llevar.1 + 1=0

 El programa

(Si estas cosas le sientan mal , no se preocupe y vuele a la siguiente 

 sección.)

1 Borrar  registro 1

2 Borrar  registro 2

3 Borrar  registro 3

4 Borrar  registro 4

5 Borrar  registro 5

Ahora está inicializados todos los registros que necesitará el pro-grama. Los registros 1 y 2 contendrán los números que se han de su-mar, y el registro 3 contendrá el resultado. El registro 4 es el registrode llevar. La «casilla» izquierda del registro estará puesta en 1 paraindicar que nos llevamos uno. (Las otras casillas del registro no seusarán durante el programa.) El contenido del registro 5 no cambia

Page 114: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 114/416

nunca. Se usará como «cantidad conocida» en operaciones de compa-

ración.

6 Entrada registro 1

Se toma del área de almacenamiento temporal del teclado el pri*mero de los dos números binarios introducidos y se sitúa en el regis-

tro 1.

7 Entrada registro 2

El segundo número va al registro 2.

8 Escribir 1 registro 3

Se inserta un 1 en el extremo izquierdo del registro del resultado.

Esto funciona como marcador para separar la respuesta de los ceros

colocados en el registro durante la inicialización.

9 Comparar registro 4 registro 5

Esta línea comprueba qué hay en el registro de llevar. El registro

5, el «registro constante», siempre contiene ceros. El registro 4, el re-

gistro de llevar, contendrá 0 ó 1 en el extremo izquierdo, seguido de

una cadena de ceros. Así, si el resultado de la operación de comparar

es 1, el registro de llevar sólo contendrá ceros. Si el resultado de la

operación es 0, entonces el primer bit del registro de llevar es 1. En la primera ocasión, el registro de llevar sólo contiene ceros. El compu-tador vuelve a esta línea varias veces en el curso de la ejecución del

 programa.

10 Ramificar-en-o 22

Cuando hay que llevarse 1, el computador salta al conjunto de

instrucciones que comienzan en la línea 22. Cuando no hay que lle-

varse nada, pasa a la línea 11.

118 Inteligencia artificial Una introducción filosófica

Page 115: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 115/416

In s t r u c c i o n e s   p a r a   s u m a r   c u a n d o  n o  n o s   l l e v a m o s  n a d a

La hipótesis del sistema de símbolos 119

11 Comparar-R registro 1 registro 2

El computador necesita saber si los bits de los extremos derechosdel registro 1 y el registro 2 son un par de ceros, de unos, o mixto.(Éstos son los bits que están a punto de ser sumados.) Si el resultadode la línea 11 es 0, los dos bits son un par mixto, y la instrucción deramificar de la línea 12 mueve al ordenador a la línea 17. Si el resultado de comparar-R es 1, los dos bits son iguales. La línea 13 esta

 blece si los dos son unos o los dos son ceros comparando uno deellos con el bit del extremo derecho del registro constante.

12 Ramificar-en-0 17 

13 Comparar-R registro 1 registro 5

Si el resultado de esto es 0, los bits que hay que sumar son ambosunos, y el computador va a la línea 19. Si el resultado es 1, los dos bits

 por sumar son ceros, y la línea 15 escribe el resultado de la adición enel registro de resultados.

14 Ramificar-en-0 1913 Escribir 0 registro 3

Se pone en el registro de resultados el de sumar dos ceros.

16 Ramificar 32

Pasa a la línea 32.

17 Escribir 1 registro 3

Se pone en el registro de resultados el de sumar 0 y 1.

18 Ramificar 32

19 Escribir 0 registro 3

Se pone en el registro de resultados el de sumar dos unos.

20 Ramificar 32

Page 116: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 116/416

120 Inteligencia artificial. Una introducción filosófica

I n s t r u c c i o n e s   p a r a  s u m a r   c u a n d o  h a y  q u e   l l e v a r s e  u n o

Este bloque de instrucciones es igual que el bloque anterior, salvo

 porque se emplean las reglas del Conjunto B.

22 Comparar~R registro 1 registro 2

23 Ramificar~en-0 29

24 Comparar-R registro 1 registro 525 Ramificar-en-O 31

26 Escribir 1 registro 3

Se pone el resultado de sumar dos ceros en el registro de resul-tados.

27 Borrar registro 4

El registro de llevar se pone a 0.

28 Ramificar 32

29 Escribir 0 registro 3

Se pone en el registro de resultados el de sumar dos unos. No hay

cambios en el registro de llevar. En esta fase, el computador ha su-

mado los bits del extremo derecho de los registros 1 y 2. A continua-

ción se realizan dos operaciones de cambiar, expulsando estos dos

 bits y trasladando el siguiente par que hay que sumar a la posición

del extremo dei*echo.

32 Cambiar registro 1

33 Cambiar registro 2

Para sumar el siguiente par de bits, el computador debe hacer un

 bucle y volver a la línea 9. Cada vez que el computador hace un bu-

cle, se suma el par de bits de los extremos derechos y luego se ex-

 pulsa. Puesto que cada operación de cambiar introduce un cero por laizquierda, el registro 1 y el registro 2 se llenan de ceros gradualmente,

hasta que no queda ninguno de los bits originales. En ese momento el

cálculo se ha completado. Antes de enviar el computador a realizar el

 bucle debemos comprobar si hemos alcanzado esta fase. Se comparan

los registros 1 y 2 con el registro constante. Si ambos coinciden con

Page 117: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 117/416

La hipótesis del sistema de símbolos 121

él, se han sumado todos los bits. Si algunos no coinciden, el computador vuelve a la línea 9.

34 Comparar  registro 1 registro 535 Ramificar-en-0 9

36 Comparar registro 2 registro 5

37 Ramificar-en-0 registro 2 registro 5

Una vez sumados todos los pares de bits, falta comprobar el registro de llevar para ver si nos llevamos algo del último par sumado,y, si ése es el caso, poner otro 1 en la izquierda del resultado (situación que se presentaba en el ejemplo de páginas anteriores). Esto es loque sucede en las cuatro líneas siguientes.

38 Comparar  registro 4 registro 5

39 Ramificar-en-0 41

40 Ramificar 42

41 Escribir 1 registro 3

En este punto, el registro de resultados no sólo contiene el resultado, sino además el 1 que se insertó como marcador en la línea 8, seguido de una cantidad desconocida de ceros que quedan desde la ini-cialización. Puesto que el resultado se ha ido embutiendo desde laizquierda, el marcador estará inmediatamente a la derecha del resultado. Así, el registro de resultados podría tener este aspecto:

marcador 

resultado yf  

1011011010110000

Ceros que quedan desde la inicialización

La razón de usar el marcador es que los «ceros de cola» suponenuna diferencia. 101000 no es el mismo número que 101. En base 10, el

 primero es 40 y el segundo es 5. (En cambio, los «ceros de cabeza» nosignifican ninguna diferencia. 101 y 000101 son el mismo número.)Antes de imprimir la respuesta, hay que quitar los ceros de cola, y

Page 118: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 118/416

122 Inteligencia artificial. Una introducción filosófica

también el marcador. La manera de hacerlo es realizar una serie decambios en el registro de resultados, comprobando antes de cada cam bio si el bit del extremo derecho es 1. Cuando el marcador aparece al

final del registro, hace falta un cambio más para librarse de él, y entonces se puede imprimir el resultado. La sección final del programaconsiste en un bucle para cambiar todos los ceros de cola, un cambiofinal para librarse del marcador, y una instrucción de salida.

42 Comparar-R registro 3 registro 5

43 Ramificar-en-0 46 

44 Cambiar registro 3

45 Ramificar  42

46 Cambiar registro 3

47 Salida

48 Parar 

registro 3

 Ejercicios

1. Esbozar las alteraciones que se necesitan para convertir el programa en otro que sume tres números cualesquiera.

2. Diseñar a grandes rasgos un programa que almacene y luegosume cualquier cantidad de números: una lista de tres números, de cuatro números, o todos los que sean necesarios7.

7 Este ejercicio es importante desde un punto de vista teórico. Calvin Elgot y

Abraham Robinson («Random-Access Stored-Program Machines, an Approachto Programming Languages») han demostrado que expresiones sencillas comoxf+x2+xí+...+xn, cuando n  puede tomar cualquier valor, no las puede computar unamáquina de acceso aleatorio, con programa almacenado, si no emplea el direcciona-micnto indirecto, u otra técnica equivalente, para modificar las instrucciones mientrasfunciona el programa (como el direccionamiento variable de Von Neumann, véase ca pítulo 1, nota 19). El resultado de Elgot y Robinson se aplica sólo a máquinas con memoria de acceso aleatorio, pero no a máquinas con acceso serial. (Tenemos acceso aleatorio a los cajones de un archivador: vamos directamente al cajón que queramos.

Tenemos acceso serial al contenido de una cinta magnetofónica: para llegar al trozoque deseamos hemos de’pasar los precedentes.) Las máquinas de Turing (capítulo 6)tienen memoria de acceso serial. Una máquina de Turing puede computar expresionescomo la precedente sin necesidad de modificar las instrucciones. No todos los comentaristas lo tienen claro. Según Herman Goldstine, «una máquina que carezca de la posibilidad de alterar las instrucciones no puede formar [esto es, computar] expresionestan simples como [x^Xj+Xj+.-.+xJ para valores arbitrarios de n - 1, 2,...» (The Com

 puter from Pascal to Von Neumann, pp. 265-6).

Page 119: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 119/416

La hipótesis del sistema de símbolos 123

3. Mostrar que Rramificar  es redundante, esto es, mostrar que elefecto de la instrucción Rramificar registro x  se puede conseguir mediante un subprograma compuesto con otras opera

ciones fundamentales. (La nota 8 da una pista.)

El primer ejercicio es fácil; el segundo y el tercero son para gentecon el gusanillo.

4.5. Definición de un computador 

En este capítulo se han descrito varias operaciones fundamentales.Por conveniencia las voy a reunir en una sola lista, junto con otrastres que implícitamente estaban presentes, pero no se han hecho explícitas. (Si ha llegado usted hasta aquí directamente desde la sección 4.1,le vendrá bien echar un rápido vistazo a las páginas 109-111 y 114-116, donde se describen por completo las operaciones de la segunda ytercera partes de la lista.)

Operaciones generales

 Identificar.  La máquina puede identificar los símbolos de cualquier lugar.

 Interpretar. Es la capacidad de interpretar la que permite a la máquina ejecutar un programa almacenado. La interpretación se define

como sigue: una máquina puede interpretar una cadena de símbolosque nombra una operación, si ha sido diseñada para ejecutar lá operación automáticamente cuando los símbolos entran en su registro deinstrucciones (o un dispositivo equivalente). Por ejemplo, una máquina que esté ejecutando el programa de la sección 4.3 imprimirá automáticamente una «K» al encontrar los símbolos 00000101100101 í (línea 4 del programa).

 Asignar. La operación de asignación asocia una cadena de símbolos con una entidad dada. Los símbolos asignados funcionan comoun nombre  de la entidad. Por ejemplo, se usan símbolos para nom-8

8 Pista: use ia instrucción copiar para almacenar el contenido del registro cuya dirección está almacenada en el registro x en una dirección a  conocida; haga lo mismocon el contenido de los registros subsiguientes; ramifique en a.

Page 120: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 120/416

124 Inteligencia artificial. Una introducción filosófica

 brar registros, programas y archivos de. datos. La operación de asignación establece una relación de «acceso» entre el nombre y la entidad: una vez que se ha asignado un nombre a, por ejemplo, un regis

tro particular, la máquina localizará automáticamente el registrocuando encuentra su nombre en una instrucción.

 Instrucciones específicas

Comparar 

Comparar-R

Copiar  Borrar 

 Entrada

Salida

Sacar-como-carácter 

Cambiar 

 Escribir 

Operaciones de control 

 Ramificar-en-0

 Ramificar incondicionalmente

 Rramificar 

 Parar 9

Sería agradable poder definir un computador como un manipulador de símbolos que funciona realizando las operaciones fundamentales recién citadas. Pero esa definición no sería correcta. El problemaes que diferentes diseños y construcciones de computadores usanoperaciones fundamentales diferentes. Por ejemplo, un computador

 podría tener como operación fundamental comparar por la derecha yotro comparar por la izquierda, O en vez de tener una operación es

9 En esta lista hay mucha redundancia (véase Newell, A., «Physical Symbol Systems», sección 4.8). En.el diseño de computadores, la redundancia suele ser una virtud,

 pues contribuye a la eficiencia. Una máquina que tenga que «construir» cada Rramifi-car-en-0 o Rramificar a partir de otras operaciones, será más lenta, en igualdad de circunstancias, que otra máquina que cuente estas operaciones entre las primitivas.

Page 121: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 121/416

La hipótesis del sistema de símbolos 125

cribir que introduzca símbolos en un registro por la izquierda (comose describe aquí) podría tener una operación análoga que los introdu-

 jera por la derecha. Una desviación más básica sería tomar como fun-

damental la suma. En la sección anterior hemos visto cómo se «cons-truye» la adición a partir de comparar , cambiar , borrar , etc. Sitomamos la adición misma como operación fundamental —esto es, sila máquina está cableada para realizar sumas binarias—, entonces lasituación se invierte, y comparar , cambiar  y borrar  se podrán «cons-truir» a partir de sumar .

La definición que voy a dar hace uso del concepto de equivalen-

cia. Decir que dos máquinas que emplean operaciones fundamentalesdistintas son equivalentes es, básicamente, decir que sus diferentesoperaciones les permiten hacer, al final, las mismas cosas. Puede queuna máquina use comparar por la derecha y la otra use comparar porla izquierda, pero al final ambas hacen aritmética, ingeniería aeronáu-tica, ajedrez, etc. Es conveniente decir, no sólo que las dos máquinasson equivalentes, sino que los diferentes conjuntos de operacionesque usan son equivalentes. Para expresar la idea de equivalencia más

formalmente* dos listas de operaciones fundamentales son equivalen-tes cuando toda computación que se puede realizar usando sólo ope-raciones extraídas de la primera lista, también se pueden realizarusando operaciones extraídas de la segunda lista, y viceversa.

Un manipuladon de símbolos que trabaje realizando las opera-ciones fundamentales de nuestra lista, o una lista equivalente a ella,se llama un sistema universal de símbolos10. Los términos «compu-tador de propósito general con programa almacenado» y «sistema

universal de símbolos» son intercambiables. Todo computador de propósito general con programa almacenado, desde el último gi-gante Cray hasta el más humilde portátil, es un sistema universalde símbolos. Los computadores vienen con operaciones fundamen-tales diferentes y distintas disposiciones internas, trabajan a dife-rentes velocidades, tienen memorias internas mayores o menores,y están cortados a la medida de entornos más o menos refinados,

10 Una máquina que use las operaciones de la lista y tenga memoria ilimitada equi-vale a una máquina universal de Turing, (véanse capítulo 6 y Newell, op. cit., sección 3).La demostración de esto consiste, en esencia, en escribir un programa para la máquinaque le permita simular una máquina universal de Turing, y escribir un programa parauna máquina universal de Turing que le permita simular una máquina que emplee las

reglas de la lista.

Page 122: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 122/416

 pero en el fondo son el mismo tipo de máquina: un manipulador desímbolos.

126 Inteligencia artificial. Una introducción filosófica

4.6. La hipótesis

Recordemos que decíamos en la sección 3.6 que los procesos deuna máquina u organismo son profusamente adaptables si es capazde hacer cosas como formar planes, analizar situaciones, deliberar,razonar, sacar partido de analogías, revisar creencias a la luz de laexperiencia, sopesar intereses contrapuestos, formular hipótesis y

contrastarlas con los datos, tomar decisiones razonables sobre la base de información imperfecta, etc., y eso no sólo en los dominiosartificialmente simplificados del laboratorio, sino en la plena com

 ple jidad del mundo real. He aquí la receta que propone la corriente principal de la IA para construir una máquina adaptable agran escala:

1. Empléese un código suficientemente rico, recursivo y compo-sicional para representar objetos, acontecimientos, acciones,relaciones, etc., del mundo real11.

2. Construyase una representación adecuada del mundo y susobras (incluidas creaciones humanas como el lenguaje y el comercio) en un sistema universal de símbolos. Esta «base deconocimientos» constará de estructuras de símbolos vastas einterconectádas. Debe incluir una representación de la má

quina misma y de sus propósitos y necesidades. Aquí difierenlas opiniones de si habrá que «manufacturar» esta gigantescaestructura o si se podrá programar la máquina para que, engran parte, la aprenda sola.

3. Usar dispositivos de entrada adecuados para formar representaciones simbólicas del flujo de estímulos ambientales que incidan en la máquina.11

11 En la versión tradicional de esta receta, las expresiones simbólicas representanobjetos, relaciones, etc., del mundo real, sin mediación de más representaciones. Porejemplo, en el minilenguaje presentado en la sección 4.2, el identificador 000001 representa directamente el objeto del mundo real María. También es posible la representación indirecta. En este caso, las expresiones simbólicas representan directamente otroselementos, que a su vez representan los objetos (etc.) del mundo real. En la sección10.9 se estudia una versión de la receta con representación indirecta.

Page 123: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 123/416

La hipótesis del sistema de símbolos 127

4. Disponer que se apliquen sucesiones complejas de las opera-ciones fundamentales del sistema universal de símbolos a lasestructuras simbólicas almacenadas en la base de conocimien-

tos. De eso resultarán otras estructuras simbólicas. Algunasde ellas aparecerán como salida.

5. Esta salida será una representación simbólica de las respuestasconductuales (incluidas las verbales) apropiadas para la en-trada. Se podrá usar un robot apropiado para «traducir» lossímbolos en conducta real.

La hipótesis del sistema de símbolos es, sencillamente, ésta: la re-

ceta es correcta. Según la hipótesis, cualquier sistema universal desímbolos con suficiente memoria puede llegar a ser, gracias a una or-ganización interna, adaptable a gran escala. Si la hipótesis es verda-dera, un robot cuyas acciones sean el resultado de manipulaciones desímbolos de un sistema universal de símbolos organizado adecuada-mente será capaz de interactuar con el mundo con el mismo grado de

 plasticidad, ingenio y propósito que un ser humano (o quizá con un

grado mayor).Esta hipótesis con frecuencia le suena a la gente sobremanera ex-traña. ¿Cómo es posible que pensar consista en el género de cosas que

 puede hacer un sistema universal de símbolos? Se comprende que unaparato capaz de comparar símbolos, cambiar símbolos, etc., tome laoración «el gato está en la alfombra» y ejecute la hazaña de escribirloal revés. Pero ¿cómo va a poder semejante aparato entender el signifi-cado de la oración, o preguntarse si la oración es verdadera, o desear

retorcerle el rabo al gato, o...?La extrañeza, sin embargo, no es señal cierta de falsedad. En la

ciencia y en las matemáticas hay otras muchas cosas cuya extrañezanos aturde. Consideremos, por ejemplo, el hecho de que haya algomayor que el infinito (demostrado el siglo pasado, entre mucha in-credulidad, por el matemático alemán Georg Cantor).12 O fijémonosen la hipótesis de que el orden temporal de los acontecimientos no esfijo y absoluto, sino que varía de observador a observador. Dos acon-

tecimientos que realmente ocurren al mismo tiempo a bordo de unanave espacial pueden, no obstante, ocurrir real y verdaderamente en

12 Cantor demostró la existencia de un número cardinal mayor que el cardinal delconjunto de los números enteros.

Page 124: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 124/416

128 Inteligencia artificial. Una introducción filosófica

momentos distintos desde el punto de vista de quienes están en casaen misiones de control. (Esto ha sido una piedra angular de la físicadesde Einstein).

El sentimiento de «cómo diablos» que suscita la hipótesis del sis-tema de símbolos, ciertamente subraya el hecho de que está muy le-

 jos de ser evidente que un computador sea una máquina capaz de pensar. Pero esta extrañeza no debe impedirnos conceder que la hi- pótesis podría ser verdadera. La hipótesis es una conjetura osada yllamativa. Como la conjetura de que hay vida en otros lugares delUniverso, su verdad sólo se puede contrastar mediante un proceso deinvestigación y de acumulación de datos. Falta mucho para completar

este proceso, y en el momento actual nadie sabe si la hipótesis del sis-tema de símbolos es o no verdadera. Así pues, si alguien está leyendoeste libro para averiguar si los computadores pueden o no pensar,temo que lo voy a defraudar. Sin embargo, lo que puedo ofrecer esun examen global de los datos de que disponemos en el momento

 presente. Esto nos permitirá formarnos nuestro propio juicio sobre la plausibilidad de la hipótesis con relación al conocimiento actual. Esteexamen comienza en el próximo capítulo. Para redondear éste, megustaría presentar una versión más fuerte de la hipótesis.

4.7. Realizabiíidad múltiple

Hay una distinción importante y bien conocida entre lo que sellaman los tipos y las marcas de los símbolos. ¿Cuántas letras tiene la

 palabra «ambigüedad»? Diez si la pregunta se refiere a marcas de le-tras, pero sólo ocho si se refiere a tipos de letras.

Las marcas del mismo tipo de símbolo se pueden construir de mu-chas maneras distintas. En el juego de los puntos y las cruces, porejemplo, no importa que las marcas de los símbolos se hagan con tinta,tiza o lápiz. No es pertinente la composición química de las marcas.Igual ocurre con las letras. Las marcas del tipo A se pueden hacer casicon cualquier cosa: tinta, azúcar, sangre, humo, y en el caso del código

Morse es un pitido breve seguido por uno largo, o un patrón similar deimpulsos eléctricos a lo largo de un cable. Las marcas del mismo tipode símbolo pueden ser tan diferentes como la tinta lo es del azúcar o delos impulsos eléctricos. Esto se resume diciendo que los tipos de lossímbolos tienen realizabiíidad multiplex  el mismo tipo de símbolo se

 puede realizar físicamente de cuantas maneras queramos.

Page 125: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 125/416

La hipótesis del sistema de símbolos 129

A lo largo de los años se ha usado toda una gama de métodos pararealizar los símbolos en los computadores: válvulas termoiónicas, tu-

 bos de rayos catódicos, tímpanos magnéticos, transistores de silicio y

 pastillas de arseniato de galio, por nombrar sólo unos cuantos. Desdeel punto de vista de la programación apenas importa cómo se realizanfísicamente los símbolos. Un programa escrito para una vieja máquina de válvulas puede correr igual en un computador moderno.Dos máquinas pueden ejecutar la misma sucesión de manipulacionesde símbolos aunque estén fabricadas con diferentes sustancias y secomporten de maneras muy distintas en el nivel físico.

Como señalaba Turing, la realización múltiple de los símbolos

implica que un computador no es en esencia un dispositivo eléctrico 1314. Los computadores se fabrican con componentes eléctricossólo porque es práctico y barato. En teoría, los sistemas universalesde símbolos se podrían construir de otras muchas maneras, inclusocon engranajes, palancas y muelles. No es una posibilidad tan lejana.A principios del siglo pasado, Charles Babbage, profesor lucasiano dematemáticas en Cambridge, diseñó una máquina verdaderamente no

table, la máquina analítica. Fue el borrador del primer computador programable. Tenía que haber constado de miles de engranajes, barras, dientes y piñones; si se hubiera completado su construcción, lamáquina terminada habría tenido el tamaño y el peso de una locomotora. Pero era demasiado caro y difícil trabájar los componentes conlos grados de tolerancia extremadamente finos que exigía el diseño, y,

 por desgracia, Babbage murió cuando no se había finalizado el modelo prototipo H.

El fenómeno de la realizabilidad múltiple abre el camino para unanueva teoría del cerebro y del pensamiento humanos. Quizá el cere-

13 Turing, A. M., «Computing Machinery and Intelligence», p. 439.14 Alan Bromley, en «Charles Babbage's Analytical Engine, 1838», ofrece un trata

miento interesante del visionario proyecto de Babbage. Véase también Lovelace, A. A.y Menabrea, L. F., «Sketch of the Analytical Engine Invented by Charles Babbage,

Esq.». Ada Lovelace colaboró con Babbage. Escribió varios programas para la máquina. Metropolis y Worlton han escrito sobre el grado en que los iniciadores de lacomputación electrónica conocían el trabajo de Babbage («A Trilogy of Errors in theHistory of Computing», pp. 50.3). Se mencionó a Babbage en conferencias de la Moore School (hogar del ENIAC) en 1946 y en Manchester en 1947. «Babbage» era unnombre familiar para todos los que trabajaban en el proyecto ACE de Turing en el La boratorio Nacional de Física, en Teddington. Turing, en «Computing Machinery andIntelligence», menciona a Lovelace y a Babbage,

Page 126: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 126/416

130 Inteligencia artificial. Una introducción filosófica

 bro sea una realización orgánica de un sistema universal de símbolos.Puede que el cráneo humano contenga literalmente un computador.

 La hipótesis fuerte del sistema de símbolos

La hipótesis del sistema de símbolos afirma que los computado-res, tal como se han definido, son capaces de pensar. La hipótesisfuerte del sistema de símbolos afirma que  sólo  los computadores (enel sentido definido) son capaces de pensar. Según esta segunda hipó-tesis, ningún artefacto, excepto un computador, será jamás capaz de

 pensar, y, además, cualquier órgano natural, terrestre o extraterrestre,con capacidad de pensar será, si se inspecciona con detenimiento, uncomputador. Si hemos de creer esta hipótesis fuerte (y la creen unoscuantos destacados filósofos e investigadores de IA) todas las perso-nas son computadores15. La mente humana es un sistema universal desímbolos, dice la hipótesis, y, en el fondo, todo pensamiento humanoconsiste en manipulaciones de símbolos, aunque sin duda el compu-

tador que hay dentro de nuestro cerebro emplea operaciones funda-mentales muy diferentes de las enumeradas en la sección 4.5, y quizáel código que emplea no es el código binario que usan los computa-dores manufacturados. En los capítulos 9 y 10 discuto con detalle lahipótesis fuerte del sistema de símbolos.

15 Véanse los artículos de Newell y Simon citados en la nota 1. Otros dos defenso-res destacados de la hipótesis fuerte del sistema de símbolos son Jerry Fodor {The 

 Language o f Thought) y Zenon Pylyshyn {Computation and Cognition).

Page 127: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 127/416

Capítulo 5 

LOS HECHOS

La hipótesis del sistema de símbolos es la conjetura de que se puede programar un computador para que piense. ¿Qué verosimili-tud tiene esta conjetura? Este capítulo examina los datos.

5.1. Los da tos en fav or de la hipótesis

El medio más directo posible para suministrar indicios en favorde la hipótesis del sistema de símbolos es programar computadoresque efectúen tareas que la gente realiza usando la cabeza, y dar una

 puntuación baja a las tareas estrictamente especializadas que requie-ren escasa adaptabilidad a nuevas circunstancias, y una puntuaciónalta a las tareas más generales que exigen un alto grado de flexibili-dad. Así, si preguntamos a los investigadores de la IA qué razón hay

 para creer que su hipótesis es verdadera, la respuesta probable seráuna lista de los impresionantes éxitos de la IA (algunos de los cualeshemos vislumbrado en el capítulo 2). Deep Thought e Hitech jueganal ajedrez magistralmente. El programa de damas de Samuel no sóloderrota a campeones, sino que aprende en el curso de los enfrenta-mientos. El Resolutor General de Problemas razona lo bastante para

131

Page 128: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 128/416

132 Inteligencia artificial. Una introducción filosófica

resolver problemas del calibre del de la Torre de Hanoi o de los Mi-sioneros y los Caníbales, Sam responde preguntas sobre narracionescon una competencia que, si la desplegara un niño de cuatro años, lle-

naría de orgullo el corazón de su madre. Frump tiene aptitud para producir compendios inteligentes de noticias. Hacker es un programacapaz de escribir programas. El maravilloso Shrdlu puede tomar parte en: conversaciones inteligentes en lenguaje ordinario acerca desu mundo de bloques, formar y ejecutar planes de acción y explicarsus motivos. El Lógico Teórico demuestra teoremas de lógica simbó-lica que pondrían en aprietos a muchos de los alumnos de mis clasesde lógicá. El sistema experto Mycin puede diagnosticar la enferme-

dad de una paciente a partir de sus síntomas y el resultado de los aná-lisis. Incluso Parry hace un meritorio intento de mantener el tipo enla conversación.

Entre los muchos programas de IA no comentados en el capítu-lo 2 vale la pena ocuparse, en especial, de los siguientes.

El programa resolutor de problemas Eurisko, de Douglas Lenat,fue campeón de Estados Unidos en «Traveller», un juego de guerra

de las galaxias. El programa competía usando una flota de naves deguerra que había diseñado él solo. La excéntrica flota del programasacaba partido de las reglas del juego de maneras no convencionales,y era notablemente superior a las flotas diseñadas por los participan-tes humanos. Lenat mismo echaba una mano que otra en el procesodel diseño, comprobaba periódicamente la tarea del programa y hacíaalgunas modificaciones aquí y allá. Dice que «los méritos de la victo-ria correspondían a Lenat y Eurisko en proporciones del 60 y el 40

 por 100, respectivamente, aunque lo significativo es que ni Lenat niEurisko podrían haber ganado por su propia cuenta» 1(el ultimo pro-yecto de Lenat, el CYC, se estudia en la sección 5,6).

Hay un programa de aprendizaje escrito por Patrick Winston ca- paz de adquirir un concepto a través de la presentación de casos delmismo12. Tomemos el concepto de arco. El programador presenta al

 programa diagramas de varios arcos, junto con diagramas de «fraca-sos parciales», figuras que contienen algunos pero no todos los ele-

mentos de un arco (un «arco» sin agujero en medio, por ejemplo). A partir de estos casos y contraejemplos, el programa abstrae el con-cepto de arco. No necesita ayuda del programador, quien simple-

1 Lenat, D. B., «The Nature of Heuristics», p. 242.2 Winston, P. H., «Learning Structural Descriptions from Examples».

Page 129: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 129/416

Los hechos   133

mente le dice cuáles son arcos y cuáles no. El programa es capaz dehacer lo mismo con otros conceptos que se prestan a la «geometriza-ción», tales como mesa y pedestal (aunque sólo es capaz de aprender

los aspectos geométricos de estos conceptos: nada sabe de los usos delos arcos y las mesas).

David Waltz escribió un programa para la visión capaz de inter pretar dibujos bidimensionales como escenas tridimensionales3. El programa no se deja desorientar por la presencia de sombras, fracturas, aristas oscurecidas y otras pegas, infranqueables para anteriores

 programas de visión. Por ejemplo, el programa reconoce los dibujosde la figura 5.1 y se da cuenta de que representan la misma escena consombras diferentes.

Shakey, un robot móvil construido en el Instituto de Investigación de Stanford, estaba provisto de sensores táctiles y un ojo de televisión4. El robot vivía en varias habitaciones unidas entre sí llenas de bloques de madera desparramados. Cuando se le daba la instrucciónde, por ejemplo, trasladar el bloque X desde su posición en la plataforma de la habitación «A» hasta un lugar debajo de una ventana,

Shakey navegaba hasta la habitációñ «A» desde donde estuviera, so pesaba la situación, decidía que necesitaba una rampa para llegar a la plataforma, rodaba rampa arriba, tiraba el bloque al suelo, descendíay llevaba el bloque hasta la posición pedida, todo ello sin intervención humana.

Todo este frente de argumentos no basta, desde luego, para esta blecer que la hipótesis del sistema simbólico es verdadera; eso sólo loharía un computador pensante completo y cabal. Los logros conse

guidos por la IA hasta la fecha no prestan sino cierto grado de apoyoa la hipótesis. ¿Es grande, pequeño o muy pequeño ese grado?

5.2, Los da tos en pe rspe ctiva

Los indicios son impresionantes, y sin duda obligan a tomar enserio la hipótesis del sistema de símbolos. Pero no nos impresione

mos demasiado. A pesar del optimismo que rezuma la comunidad dela IA, en mi opinión los indicios son demasiado magros para forzar elmenor grado de confianza en la verdad de la hipótesis.

3 Waltz, D. L., «Understanding Line Drawings of Scenes With Shadows».4 Raphael, B., The Thinking Computer , capítulo 8.

Page 130: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 130/416

134 Inteligencia artificial Una introducción filosófica

FIGURA 5.1.  Las sombras son un problema para los programas de reconoci-miento visual (Tomado de las figuras 2,1 y 2,2 de Winstony P.H., (ed.} The 

Psychology of Computer Vision,)

Los logros de la investigación en IA son escasos, incluso de jue-

gúete, cuando se los compara con la meta global de un computador

que opere a niveles humanos de inteligencia en medio de la compleji-

dad no regimentada del mundo real Si sacamos a Shakey de su en-

torno de laboratorio artificialmente simplificado, su actuación estará

Page 131: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 131/416

Los hechos 135

al nivel de la de un ratón mecánico. Entre las muchas simplificaciones

que requiere para funcionar está una llamativa raya de pintura alrede-

dor de la habitación para enseñarle dónde termina el suelo y dónde

comienza la pare d5. Y Shakey es penosamente lento. Cada movi-miento individual del robot consume más o menos una hora de

tiempo de computación. En realidad le llevó dos días completar la

maniobra que hemos descrito en la sección anterior.

La mayoría de los investigadores de la IA son, por su parte, bas-

tante cautos en la valoración de los datos que hay hasta el momento.

En los años sesenta un investigador hacía notar que veía mucha acti-

vidad, pero pocas señales auténticas de progreso, y en 1984 Douglas

Lenat aludía a «décadas de progreso humillantemente lento» en laIA 6. Incluso Marvin Minsky, que en 1967 predecía que «dentro de

una generación el problema de crear inteligencia artificial estará sus-tancialmente resuelto», ahora concede que «el problema de la IA es

uno de los más difíciles que jamás ha acometido la ciencia»7.

Mucha gente no se deja impresionar en absoluto por los resulta-

dos de la investigación en IA, y cree que el proyecto de la inteligencia

en los computadores no va a ninguna parte. Stuart Dreyfus, un cien-tífico de la computación, ha expresado este punto de vista con una

frase tajante: «Las actuales pretensiones y esperanzas de progresar

en... fabricar computadores inteligentes son como creer que alguien

que está subiendo a un árbol progresa para alcanzar la Luna»8. Su

hermano Hubert Dreyfus, filósofo y conocido crítico de la IA, es

igualmente áspero en su juicio: «En veinticinco años de investiga-ción sobre la inteligencia artificial, ésta ha cumplido muy pocas; de

sus promesas y no se ha dado ninguna prueba de que se cumplan jamás»9.

En esta sección explicaré por qué los programas que hemos visto

no son tan impresionantes como pueden parecer de primera impre-

sión. En particular, detallaré las principales limitaciones y debilidades

del Resolutor General de Problemas y de Shrdlu. He elegido éstos

 porque son probablemente los programas de IA más renombrados.

5 Raphael, B., «The Robot Shakey and his Successors», p. 7.

6 Giuliano, V. E., «Comments on a Paper by R. F. Simmons», p. 69; Lenat, D. B.,

«Computer Software for Intelligent Systems», p. 152.

7 De estas dos afirmaciones de Minsky informa Dreyfus, H. L., y Dreyfus, S. E.,

 Mind O ver Machine, p. 78,

8 Dreyfus, H. L., y Dreyfus, S. E., Mind Over Machine, p. 10.

9 Dreyfus, H. L. y Dreyfus, S. E., Ibidem , p. XI.

Page 132: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 132/416

136 Inteligencia artificial Una introducción filosófica

Pocas personas negarán que todos los programas actuales de IAestán seriamente limitados. Las reacciones ante esta falta de progresovarían. Los críticos como los hermanos Dreyfus entienden que la na-

turaleza limitada de los logros actuales es una señal de que la IA estágravemente comprometida. Algunos investigadores de IA que com-

 parten esta reacción han optado por abandonar la corriente principalde la IA y han vuelto su interés hacia un nuevo tipo de dispositivo de

 procesamiento de la información (véase capítulo 10), abandonandolos computadores. Sin embargo, un gran número de investigadores

 permanece fiel a la IA tradicional. Reconocen que el campo de la in-teligencia de los computadores —como otros muchos campos de la

ciencia— tiene una necesidad acuciante de grandes cambios. Pero noencuentran razones para desesperar de que éstos lleguen con el pasodel tiempo.

 El Resolutor General de Problemas

La primera versión del Resolutor General de Problemas (GPS, para abreviar) funcionó en 1957, y sufrió mejoras y modificacionesdurante una década. En su tiempo, el GPS era una maravilla delmundo de la informática, y con razón. Pero tal es la obra de la histo-ria que en 1976 Drew McDermott, conocido investigador de la IA,escribía: «En la actualidad, “GPS” es un término insípido que denotaun programa para resolver problemas particularmente estúpido. Peroen su origen significaba “Resolutor General de Problemas”, lo cual

causó a todo el mundo mucha excitación y distracción inútiles»1011. Unrápido vistazo a la forma de operar del programa pondrá de mani-fiesto los rasgos que provocaron semejantes juicios11.

El GPS es lo que se conoce como un analizador medios-fines .Descríbase el objetivo, descríbase la posición inicial, désele una listade los medios disponibles y el GPS hará ensayos hasta que tropiececon una mañera de usar los medios para alcanzar el objetivo. En elcaso del problema de los misioneros y caníbales (descrito en la sec-

ción 2.7), en la posición inicial tenemos tres misioneros y tres caníba-les en la orilla izquierda del río; la meta es que los mismos personajes

10 McDermott, D., «Artificial Intelligence Meets Natural Stupidity», p. 144.11 Se encuentran más detalles sobre el programa en Ernst, G. W. y Newell, A.,

GPS: A Case Study in Generality and Problem Solving.

Page 133: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 133/416

Los hechos 137

estén en la orilla derecha sanos y salvos, y la lista de medios contienelas dos operaciones «trasladar el bote con x número de misioneros e y  número de caníbales desde el lado izquierdo hasta el lado derecho», y

«trasladar el bote con  x número de misioneros e  y  número de caníba-les desde el lado derecho hasta el lado izquierdo» (donde la suma de xe y  tiene que ser siempre 1 ó 2, puesto que el bote necesita una per-sona que reme y su capacidad es de dos).

El GPS resuelve el problema ensayando las operaciones de movi-miento una tras otra, sustituyendo x e  y   por números, hasta queacaba por encontrar una sucesión de movimientos que conducendesde la posición inicial hasta la meta sin que en ningún momento loscaníbales superen a los misioneros (si eso ocurriera, atacarían). Porejemplo, el movimiento inicial elegido al azar por el programa puedeser llevar dos misioneros al lado derecho. Inmediatamente ocurrenacontecimientos indescriptibles en la orilla izquierda. El GPS, el me-

 jor táctico por ensayo y error del mundo, lo intenta de nuevo sin in-mutarse. Lleva un misionero y un caníbal de izquierda a derecha.

 Ningún diente desgarra la carne, así que el GPS se atiene a este movi-

miento y considera el próximo. Primero comprueba si en la orilla iz-quierda queda algún caníbal o misionero. Sí, los hay, de modo que nose ha conseguido el objetivo y hay que hacer otro movimiento de iz-quierda a derecha. Ahora busca el bote. Está en la derecha, así quehay que proceder a un movimiento de derecha a izquierda. Bien, ha-gamos uno: trasladar el bote con 0 misioneros y 1 caníbal desde ellado derecho hasta el lado izquierdo. ¡Cielos! Borremos eso... Y asísucesivamente. El GPS, lenta y torpemente, se acerca á la meta.

Con esto quedará suficientemente clara una de las razones paradecir que el GPS es un «programa particularmente estúpido». El mé-todo de tanteo a ciegas es un último recurso de la desesperación, másque un enfoque inteligente para resolver un problema, y el GPS fueuna especie de primer recurso de la desesperación en el intento decrear computadores inteligentes. Pero no hay que ser demasiadoduro con el GPS. Como primer barrunto de meta tan lejana, el pro-grama merece una gran admiración. ¿No usaría usted   el tanteo para

resolver el problema de los misioneros y caníbales?La técnica de tanteo del programa no es enteramente ciega. Por

ejemplo, rechazará un movimiento cuya consecuencia inmediata ledeje en una posición que ya ha conseguido eliminar. También incor-

 pora diversos procedimientos para impedir que el programa caiga enuna senda falsa interminable. El más simple es cortar: abandona cual-

Page 134: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 134/416

138 Inteligencia artificial. Una introducción filosófica

quier serie de movimientos que excedan una longitud predefinida sinalcanzar la meta.

Otro medio importante que emplean los programadores para

guiar la búsqueda del programa es incorporar instrucciones relativasa qué movimiento elegir primero cuando hay varias alternativas. Pordar un ejemplo, supongamos que el GPS no está ocupado con misio-neros y caníbales, sino con la tarea de planear los movimientos quedebe hacer un robot para cambiar bloques de sitio. La lista de medioscontiene las operaciones moverse, «cogerbloque»,  «dejarbloque»,«llevarbloque», etc. Supongamos que el .robot está sosteniendo el

 bloque X y se le pide sostener, en vez de éste, el bloque Y. Antes de

 poder aplicar a Y «cogerbloque», el robot debe hacer dos cosas: libe-rar su brazo e ir donde está Y. (Estas llamadas  precondiciones  de laoperación «cogerbloque» las pone en el programa el programador. ElGPS las buscaría en vez de inventarlas.) ¿Qué hay que hacer primero,moverse o «dejarbloque»? Aquí el programa podría contener la ins-trucción de que cuando haya que hacer ambas cosas, se intente pri-mero «dejarbloque», puesto que entonces el brazo del robot estará li-

 bre para coger y retirar de su camino los bloques interpuestos que podría encontrar en su movimiento hacia el bloque Y. Habría queabandonar el intento de «dejarbloque» en favor de moverse sólo sidejar el bloque X obstruyera el camino que debe seguir el robot parallegar a Y.

La jerarquización previa del orden en que se deben intentar losmovimientos alternativos en un conjunto dado de circunstancias seconoce como heurística. Esta es un rasgo vital del GPS y sus autores

dedicaron mucho ingenio a diseñar heurísticas que dieran al pro-grama toda la guía posible en su disección por ensayo y error de un

 problema. Sin embargo, se complica hasta lo intolerable construir je-rarquías en el caso de problemas complejos cuyas listas de medioscontienen grandes cantidades de operaciones. El GPS está, pues, lejosde ser un resólutor  general   de problemas. La táctica de ensayo yerror del programa, guiada por tablas ingeniosas, pero esencialmentetoscas, que le dicen lo que debe hacer, sólo le permiten afrontar los

 problemas más simples.Hay otra razón por la que el GPS no está a la altura de su título

de resolutor general de problemas. Lejos de ser general, sólo puedeabordar problemas de un tipo muy especial; a saber, los que siguen la

 pauta de lograr una meta a partir de una posición inicial He aquí un problema de tipo completamente distinto. Un hombre abandona un

Page 135: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 135/416

Los hechos 139

refugio en lo alto de una montaña al mediodía y baja una senda hastaotro refugio al pie de la montaña. Al día siguiente una mujer aban-dona el refugio al pie de la montaña, también al mediodía, y sube la

senda del refugio de lo alto de la montaña. ¿Hay alguna hora tal que aesa hora del segundo día la mujer esté en el mismo lugar de la sendaen el que estaba el hombre a esa hora del día anterior? No hay nin-gún medio natural de encajar este problema en el formato de «usa losmedios indicados para llegar, a partir de la posición inicial, a la meta».¿Cuál es la posición inicial? ¿Cuál es el objetivo? ¿Cuáles son los me-dios? En realidad, pocos de nuestros problemas ordinarios presentan

una forma tan neta.Es un hecho que la mayor parte de la solución de los problemasdel GPS es del programador y no del programa. (De esto se puedeacusar a todos los programas de IA existentes.) Esto ocurre, claroestá, por causa de las jerarquizaciones que el programador suministraal GPS para decirle lo que tiene que intentar primero en situacionesen las que son posibles varios movimientos alternativos (como en elcaso de «dejarbloque» y moverse). Lo que guía la elaboración de es-

tas jerarquías a menudo complejas es la comprensión que tiene el programador del problema, y su sensación de cómo se puede resol-ver. El GPS jamás comete un error cuando soluciona el enigma de lastorres de Hanoi (como anuncian con orgullo sus autores)12. Pero elmérito no es del GPS, sino de sus creadores humanos, que, en estecaso, se las han arreglado para diseñar ordenamientos que le dan al

 programa una guía perfecta. Simplemente, con dar al programa unadescripción clara del objetivo y una lista exhaustiva de los medios, los

 programadores han concedido al programa los beneficios de la inteli-gencia humana. Ojalá mis problemas estuvieran definidos con tantaclaridad.

El programador soluciona los problemas, y no el programa, poruna razón más sutil. Tiene que ver con lo que llamaré encontrar unarepresentación del problema. Volvamos al problema de los dos mon-tañeros. Si usted lo ha resuelto, probablemente lo ha hecho superpo-niendo los dos viajes, o, en otras palabras, imaginando que las dos

 personas hacen sus viajes el mismo día. Una vez que nos representa-mos el problema de esa forma, es fácil ver que las dos personas estánobligadas a cruzarse en el camino. Muy a menudo la parte difícil de

12 Ernst, G. W. y Newell, A., GPS: A Case Study in Generality and Problem Sol-

ving, p* 163.

Page 136: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 136/416

140 Inteligencia artificial. Una introducción filosófica

resolver un problema es dar con una manera buena de representarlo.Lograda una representación útil, es fácil obtener la solución.

Una ilustración famosa de esto es el llamado problema del tablero

de ajedrez mutilado. Tomemos un tablero de ajedrez común, con sussesenta y cuatro casillas blancas y negras, y un paquete de galletasrectangulares. Cada galleta tiene el tamaño exacto de dos casillas.¿Cuál es el menor número de galletas que necesitamos para cubrir lassesenta y cuatro casillas? Exacto, treinta y dos. Ése no es el problema.Ahora supongamos que cortamos dos casillas del tablero, una en unaesquina y otra en la esquina opuesta por la diagonal. ¿Se puede llenarel tablero mutilado con treinta y una galletas?

Tiene su intríngulis, ¿no? He aquí un «ábrete sésamo» para representar el problema. Los dos cuadros cortados tienen que ser delmismo color, pues los cuadros de la misma diagonal son ambos blancos o ambos negros. Supongamos que los dos cuadros que faltan sonnegros. Cada galleta cubre un cuadro blanco y otro negro, por lo quecualquier disposición de treinta y una galletas esjá obligada a cubrirtreinta y un cuadros blancos y treinta y un cuadros negros, ergo  la

solución del problema es «no». Lo que nos lleva inmediatamente a lasolución es representar el problema en términos de los cuadros decada color que se necesitan para un número dado de galletas, juntocon un poco de aritmética trivial.

¿Podría un computador resolver el problema del tablero mutilado, excepto mediante una estúpida búsqueda «por la fuerza bruta» dé todas las posibles ordenaciones de galletas sobre el tablero?¡Quién sabe! Lo cierto es que si una persona consigue encontrar la

representación, el computador suministra la aritmética trivial. Apenases mayor la contribución que hace el GPS a la solución de problemas.Sus programadores le proporcionan una sabia representación del problema y él da palos de ciego hasta que tropieza con una solución Esto resta sentido a la afirmación de que el GPS es un reso-lutor   de problemas. Imaginemos que una programadora viene conuna astuta manera de ver matemáticamente el problema de los mon-13

13 Newell y Ernst detallan once representaciones dadas al programa en GPS: A  Case Study in Generality and Problem Solving   capítulo 6. Para representar el pro

 blema sobre el asesinato de Benito (sección 2.7) de manera que el GPS lo pueda resolver, el programador tiene que considerar las dos frases de Navaja «Soy inocente» y«Todos esos imbéciles que dicen que yo lo hice mienten» como una única oración.(Newell y Ernst no ponen este ejemplo particular.)

Page 137: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 137/416

Los hechos 141

tañeros: en esta representación, el problema tiene la forma de alcanzar una meta a partir de una posición inicial, ambas cosas abstracciones matemáticas de algún género, pero no obvias. ¿No tendría usted

la impresión de que ha sido la programadora, no el programa, quien principalmente ha resuelto el problema?

Se dejó de trabajar en el GPS alrededor de 1966. «Tenemos la im presión de que hay que dejar descansar a este agregado particular decódigo IPL-V, pues ya ha hecho su contribución al progreso del conocimiento de los mecanismos de la inteligencia», escribieron Newelly Ernst en la esquela fúnebre del programa14. El crítico Hubert Dreyfus ha aprovechado el hecho de que se abandonara un proyecto tanimportante de la IA. Describe el trabajo sobre el GPS como una«curva que empieza con el éxito, sigue con el optimismo y acaba en elfracaso», y en una revisión pesimista de las perspectivas de la IA haafirmado que «el abandono del GPS» es «clara evidencia de las dificultades» 15. En mi opinión, sin embargo, este pesimismo está mal encaminado. El éxito de un proyecto en una empresa humana completamente nueva se debería medir en términos de lo que se ha aprendido

de él. Y del GPS se ha aprendido mucho. Se ha aprendido, lo que noes poco, qué rasgos especiales necesita un lenguaje de programación

 para IA; lecciones que fueron incorporadas a la familia de lenguajes de procesamiento de información (IPL) que diseñaron los autores delGPS, y, en último íérmino, en el más famoso descendiente de éstos, elLISP (muchos programas de IA están escritos en LISP). Otras lecciones se refieren a la técnica misma de análisis en medios y fines, que seha usado ampliamente desde que el GPS se convirtió en $u adelantado

(por ejemplo, la usa el programa controlador del robot Shakey).Sin embargo, quizá la lección más importante que se puede ex

traer del trabajo con el GPS es que los programas que no saben mucho no pueden hacer mucho. La idea general que estaba detrás delGPS era que las técnicas de resolución de problemas se pueden separar del llamado conocimiento orientado a tareas específicas. Por estose dio al programa el equívoco nombre de Resolutor General de Pro

 blemas. El GPS es «general» en el sentido de que el programa básicono contiene conocimiento específico para ninguna tarea o problema

 particulares16. El meollo de un programa inteligente, tal como se con

14 GPS: A Case Study in Generality and Problem Solving, p. VII.15 Dreyfus, H. L., What Computers Can't Do (segunda edición), pp. 96,296.16 Simon, H., The Shape o f Automation, p. 83.

Page 138: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 138/416

142 Inteligencia artificial. Una introducción filosófica

cebía en los primeros días de la IA, habría de consistir en un gran hazde poderosas técnicas de resolución de problemas: para resolver un

 problema particular basta con añadir unas briznas de conocimiento

 pertinente. La experiencia mostró que esta distinción entre técnicasde resolución de problemas y conocimiento es artificial y estéril.Además se hizo patente que resolver problemas auténticos —no sóloacertijos— requiere enormes cantidades de conocimientos. Así, la ex-

 periencia con el GPS condujo a resolutores de problemas basados enel conocimiento, como Shrdlu y Mycin.

 El problema del conocimiento

El conocimiento es trabajoso de manipular en un computador.Guardarlo no es difícil: cualquier idiota puede escribir un programaque entierre montones de datos en la memoria. La gracia está en or-ganizado de manera que se pueda encontrar con facilidad cada ele-mento. Éste es el primer aspecto de lo que se llama el problema del  

conocimiento. A modo de ilustración: Tarugo introduce en su compu-tador el nombre y la dirección de todas las personas residentes enCiudad de Juguete. Luego intenta recuperar la dirección de Curru-taco. Puesto que Tarugo ha enterrado los datos en la memoria sin or-den ni concierto, el computador tendrá que examinar laboriosamentecada entrada hasta dar con Currutaco, un trabajo lento, a menos detener la suerte de que aparezca pronto. Un plan mucho mejor, porsupuesto, es almacenar todos los nombres en orden alfabético, lo que

 permite al computador ir inmediatamente a la entrada requerida. Elconocimiento, pues, ha de ser dispuesto con algún género de ordendentro de la máquina para poder usarlo. Pero  ¿en  qué orden? Nohay ninguna manera manifiesta de organizar un número enormede hechos diversos. No se puede poner el mundo entero en orden al-fabético.

Éste es el primer aspecto del problema del conocimiento: encon-trar una manera de disponer vastas cantidades de conocimientos di-

versos. El segundo aspecto del problema del conocimiento es la difi-cultad de mantener frescas grandes masas de conocimientos: ladificultad de actualizar   el almacén de conocimientos. Se supone quela lista de Tarugo representa los residentes de Ciudad de Juguete entodo momento, y los movimientos de la inconmovible Guadaña exi-gen actualizarla de continuo. En este sencillo caso, la actualización no

Page 139: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 139/416

Los hechos 143

es muy problemática. Dado que los nombres están ordenados, elcomputador puede recorrer la lista una y otra vez, borrando las de-funciones y añadiendo los nacimientos. Lo que es problemático es ac-

tualizar un almacén grande y complicado de elementos interconecta-dos de información. Para que nos hagamos una idea de la dificultad,imaginemos que inesperadamente nos ofrecen un nuevo empleo enuna nueva ciudad. A esto sigue una preparación frenética. Ponemosen venta la casa, buscamos una escuela para los niños, decidimos dequé muebles deshacernos, damos la noticia a los amigos, y otras mu-chas cosas, en un espectro que va desde trivialidades como cancelar elreparto del lechero hasta volver a plantear algunos de nuestros planesy metas futuros y más queridos. Añadir un solo dato, «cambiar detrabajo», ha requerido innumerables actualizaciones en toda la com-

 pleja red de nuestras creencias, planes y perspectivas. Esto ilustra elsegundo aspecto del problema del conocimiento: diseñar métodosque permitan al computador rastrear todas las actualizaciones quehay que hacer para permitir que un cambio «fluya» a lo largo de unvasto almacén de información intercónectada. Este aspecto del pro-

 blema del conocimiento se llama a menudo problema del marco1718.El tercer aspecto del problema del conocimiento, como el pri-mero, se refiere a extraer la información del almacén: Dado un pro- blema, ¿cómo sabe el computador qué clase de información le puedeayudar a solucionarlo? El almacén de conocimientos debe estar orga-nizado de manera que el computador tenga algún medio de averiguarqué hechos pueden ser pertinentes para cada problema. Este es el problema de la pertinencia. Como dice Minsky: «El problema de se-

leccionar lo pertinente entre la variedad excesiva es clave... Para cada“hecho” necesitamos metahechos sobre cómo se debe usar^y cuándono se debe usar» 1S. Y luego, por supuesto, hay que organizar estos«metahechos». Que es a lo que íbamos.

En la sección 5.6 me ocupo con más detalle del problema delmarco y del problema de la pertinencia.

17 El nombre se debe a John McCarthy (McCarthy, J., y Hayes, P. J., «Some Philo-sophical from The Standpoint of Artificial Intelligence»).

18 Minsky, M., «A Framework for Representing Knowledge», p. 124.

Page 140: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 140/416

144 Inteligencia artificial. Una introducción filosófica

 Micromundos

El problema del conocimiento es difícil. En la IA, mucha gente lo

considera el problema fundamental. Hasta finales de los sesenta no seempezó a apreciar la centralidad del problema del conocimiento. Enlos primeros tiempos de la IA se dirigió la atención al desarrollo detécnicas de resolución de problemas aplicables universalmente, la GPS , y el problema del conocimiento quedó más o menos en la peri-feria. Pasó al centro de la escena cuando los investigadores se dieroncuenta de que la floja actuación de los primeros programas era en

 parte consecuencia de su escasa hambre de conocimiento. La res-

 puesta a este nuevo problema fue enfocar la investigación sobre«mundos» pequeños, simples y artificiales, llamados micromundos, ycrear técnicas para organizar el conocimiento relativo a los mismos.Se esperaba que, con el tiempo, las técnicas desarrolladas en la inves-tigación de micromundos se pudieran generalizar para abarcar elcomplejo mundo re a l19. Un microm uhdo clásico es el hábitat deShrdlu, que consta de una mesa, una caja y unos cuantos bloques decolores.

Shrdlu

A quien no lo conoce, Shrdlu lo impresiona intensamente, por nodecir que lo anonada. La reacción común en el primer encuentro conShrdlu es «Vaya, éste sí que piensa». Así que empezaré por desinflar

Shrdlu un poco. Shrdlu es tan fácil de derrotar como Eliza (cuyotorpe fracaso vimos en el capítulo 3). Mi ejemplo favorito es el deJohn Haugeland (las intervenciones de Shrdlu van en mayúsculas):

Construye una torre.LO SIENTO, NO CO NO ZC O LA PALABRA «TORRE».

Una «torre» es un apilamiento que contiene dos cubos verdes y una pirá-mide.

ENTIENDO.Haz un cambio: la torre por tres cubos rojos.LO SIENTO, NO CON OZ CO LA PALABRA «CAMBIO».

19 El manifiesto en favor de la política de los micromundos es de Minsky, M., y Pa- pen, S., «Progress Report on Artificial Intelligence».

Page 141: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 141/416

Los hechos 145

Un «cambio» es una libre transferencia de propiedad.LO SIENTO, NO CO NO ZC O LA PALABRA «LIBRE».

Lo siento, pensaba que eras más listo,

LO SIENTO, NO CO NOZC O LÁ PALABRA «SIENTO»20.

Es un golpe bajo, desde luego, porque obliga a Shrdlu a meterse 

en asuntos que van más allá de las fronteras del micromundo que ha-

bita. Pero, con más austeridad, incluso en su mundo de bloques, 

Shrdlu tiene serias limitaciones. Sus datos sobre este mundo son, por 

así decirlo, esqueléticos. Para Shrdlu «bloque» no significa sino un 

tipo de cosa cuya posición puede alterar: literalmente nada más21. Si 

fuéramos Shrdlu y nos preguntaran si los «bloques» son objetos sóli-dos, pesados o sólo áreas de espacio vacío definidas geométricamente, 

no podríamos responder. Tendríamos el mismo problema si nos pre-

guntaran si «rojo» es algo que se ve o que se oye o ninguna de las dos 

cosas (Shrdlu ni siquiera podría, desde luego, entender estas pregun-

tas), A pesar de la apariencia que da en la (llamada) conversación, 

Shrdlu no tiene ni idea de lo que es un bloque rojo.

Sin embargo, los bloques son uno de los temas fuertes de Shrdlu. 

Su situación es peor con respecto a alguna de las otras palabras que 

usa con tanta soltura. Consideremos este extracto de la larga entre-

vista reproducida en el capítulo 2.

Yo poseo los bloques que no son rojos, pero no poseo nada que sostenga una pirámide.ENTIENDO.

(éStV 

La pirámide azul es mía.ENTIENDO.

¿Poseo algo que esté dentro de la caja?Sí, DOS COSAS: EL BLOQUE AZUL Y LA PIRÁMIDE AZUL.

Shrdlu en realidad no tiene ningún dato sobre la relación de poseer. 

Cuando se le dice que su amigó humano posee algo (por medio de las 

palabras clave «yo poseo» o «es mío»), Shrdlu simplemente adjudica la 

etiqueta POSEER: AMIGO o incluso COMIDA: AMIGO a su «representa

20 Haugeland, J., Artificial Intelligence: the Very Idea , p. 190. He modificado un poco la versión de Haugeland.

21 Winograd, T., Understanding Natural Language, sección 7.

Page 142: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 142/416

146 Inteligencia artificial. Una introducción filosófica

ción interna» del objeto en cuestión22. La etiqueta ???: AMIGO o in-cluso COMIDA: AMIGO también serviría. Cuando se le pregunta si unobjeto es poseído, el programa sencillamente comprueba si tiene una

etiqueta (el dominio manifiesto pero ilusorio que tiene Shrdlu de lostérminos de color está también basado en esta técnica de programaciónde etiquetado). En expresión de Herb Simon, «Shrdlu sabe lo que po-see [él o su amigo], pero no entiende lo que es poseer algo»23. E inclusoeso es una manera muy generosa de decirlo. Es una mera metáfora de-cir que Shrdlu sabe o entiende nada, una metáfora espontánea perogrotesca del tipo discutido al comienzo del capítulo 3.

Quizá la crítica más profunda de Shrdlu sea la que se refiere a la

contribución, o falta de ella, que ha hecho este programa al avance enla investigación en IA. Cuando apareció el programa, fue saludadocomo novedad rompedora. Hoy día, sin embargo, hay un acuerdogeneral en que Shrdlu era, con palabras de su mismo creador, un ca-llejón sin salida24. El tiempo ha mostrado que Shrdlu era una víamuerta en la búsqueda de la inteligencia artificial: un tour de force es-

 pectacular de la programación que, desgraciadamente, no nos ha lle-

vado más allá. Las técnicas que alumbraba el programa no se hanaplicado jamás a mundos más amplios y más interesantes.Winograd sugiere que parte de la explicación es la pura compleji-

dad de su programa, que quizá se aproxima a los límites de lo que lamente humana puede manipular25. Ésta es una idea interesante ala que volveré más avanzado el capítulo. Otro aspecto de la explica-ción es, sencillamente, que los estudios de un micromundo de blo-ques de colores sobre una mesa no tiene mucho que decir sobre el

mundo real. Originariamente se esperaba que los métodos que Wino-grad usa en ese mundo se pudieran generalizar a terrenos más am- plios, y ahora está claro que eso no se puede hacer (se aplica la mismacrítica al otro programa de bloques que hemos examinado, Hacker).

La estrategia de los micromundos ha producido un resultado am- bivalente. Por un lado, hay frustraciones: programas como Shrdlü y elrobot Shakey. Estos programas, aunque actuaban bastante bien en lastareas para las que fueron diseñados, no fueron, a fin de cuentas,

comienzos de cosas de más alcance. Por otro lado, ha habido éxitos

22 Winograd, T., Understanding Natural Language, p. 143.23 Simon, H. A., «Artificial Intelligence Systems that Understand», p. 1061.24 Winograd, T., «Breaking the Complexity Barrier Again», p. 13.25 Winograd, T., Ibidem, parte 1.

Page 143: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 143/416

Los hechos 147

clamorosos: sistemas expertos como Dendral, el analista químico, yMycin, el diagnosticador médico. Pues los programas expertos sontambién programas de micromundos, que tienen bastante para mane

 jar sus asuntos con pequeños fragmentos del amplio mundo humano.A pesar del hecho de que los sistemas expertos pueden actuar a ni

veles casi humanos de pericia, y a pesar del hecho de que han mostradoel camino hacia una nueva área de aplicaciones de los computadores,también hay que considerar estos programas frustraciones en la marcha hacia una máquina que piense. Los sistemas expertos actualesnunca pueden escapar de sus estrechos mundos y entrar en la compleji

dad del mundo real. No es la estrechez misma la característica frustrante. Al fin y al cabo, los santuarios de la fama están llenos de genioshumanos que apenas eran capaces de mantener una conversación coherente o de animar el equivalente renacentista de una cena ante la televisión. La causa de la frustración es más bien que los sistemas expertosactuales son inevitablemente estrechos. Estos programas sólo son via

 bles debido a las drásticas simplificaciones que permite la estrategia delos micromundos. Por definición, el almacén de conocimientos aso

ciado a un micromundo es pequeño y, en consecuencia, manejable. Lastécnicas empleadas en los sistemas expertos para afrontar los temas dela pertinencia y la actualización son simplificadoras y no se puedenusar en dominios más extensos. Además, la programación de sistemasexpertos entraña el uso liberal de lo que los programadores llaman«trucos específicos para el dominio», trucos que sacan partido de rasgos especiales del problema o situación del caso. Un ejemplo es la re

 presentación del tiempo. Algunos sistemas expertos consiguen evitar

cualquier referencia a una dimensión temporal. En sus micromundostodo ocurre en un eterno presente. Si es inevitable la referencia altiempo, el programador incluirá sólo los fragmentos de estructura tem

 poral absolutamente esenciales para la tarea. Quizá al programa sólo sele diga que si a es anterior a b y b anterior a c, entonces a es anterior a c (una regla que le permitirá tomar pares de enunciados del tipo ante-rior-a y extraer sus implicaciones: por ejemplo, que el sarpullido del

 paciente ocurrió antes de la administración de penicilina). El sistema puede no saber nada más del significado de «anterior», ni siquiera queordena los acontecimientos en el tiempo y no en el espacio26.

26 Está bien avanzada, pero no completa, ni mucho menos, la búsqueda de métodos para programar la estructura temporal en general. Para una visión de conjunto, véase lasección 1 de mi colección Logic and Reality.

Page 144: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 144/416

148 Inteligencia artificial. Una introducción filosófica

Todavía nadie sabe hacer que los computadores actúen con nadaque se asemeje al grado humano de pericia en dominios más ampliosy menos ordenados, y ni siquiera si esto es posible.

5.3. Inflar

Inflar significa «exagerar, abultar hechos, noticias, etc.»27. Puestoque está en una zona donde la ciencia se convierte con facilidad enficción, la investigación en inteligencia artificial está especialmentesujeta a que los medios «inflen». No nos engañemos. Los computadores inteligentes no están a la vuelta de la esquina. La auténticaverdad sobre el progreso actual hacia la construcción de máquinas pensantes ha sido cubierto de una espesa niebla por la prensa, losdirectores de cine, los autores de libros populares sobre la revolucióninformática y, no menos, por los anunciantes. Los anuncios de la televisión de microcomputadores personales están, llenos de referenciasesplendorosas, pero enteramente falsas, a «terminales inteligentes» y

a «software  inteligente», mientras que los panfletos publicitarios deuna famosa compañía de tarjetas de crédito llegan a decir que sus tar jetas compatibles con ordenadores son ¡inteligentes! Es interesanteadvertir que la imagen, ya olvidada, del computador como un «estú

 pido de alta velocidad» fue también el producto de la publicidad, unaimagen que hombres y mujeres del pasado eligieron cuidadosamente

 para presentar las nuevas máquinas como candidatos ideales para losdepartamentos de contabilidad y archivo de los clientes potenciales.

Los periódicos y revistas lanzan con entusiasmo la imagen delcomputador como artefacto pensante e inteligente. No hace mucholeí en un periódico local algo sobre «los planes japoneses para crearuna máquina humana». Un artículo, especialmente reprobable, de larevista  Life  tenía el siguiente encabezamiento «Conozca a Shakey, la

 primera persona electrónica»28. Su autor informa —o más bien desin-fórma— al público de que Shakey «demuestra que una máquina

 puede pensar».. Incluso los suplementos del Times}  con su sobriedadhabitual, no tienen empacho en imprimir titulares llamativos como

17 Supplement to the Oxford English Dictionary, voL II. (La palabra deriva posiblemente de «hipérbole».)

28 Brad Darrach, «Meet Shakey, The First Electronic Person»,  Life, vol. 69, parte21, 20 de noviembre de 1970,

Page 145: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 145/416

Los hechos 149

«La comisión de recursos humanos se lanza sobre los computadores inteligentes»29. El antiguo consejo de no creer nunca lo que uno ve enlos periódicos parece tener algo más que un grano de verdad, al me

nos en lo que se refiere a la IA. Sin duda muchas personas están seriamente desorientadas por la exposición continua al bulo de que loscomputadores piensan, o lo harán en breve.

Algunos investigadores de la IA no han sentido repugnancia dechapotear en esta inflación. Recordemos la cita con que comienzaeste libro: «Algunos computadores inteligentes diseñarán otros, y serán más y más listos. La pregunta es: ¿en qué lugar quedamos nosotros?... ¿Nos conservarán como mascotas?» La visión del futuro deEd Fredkin es pura ciencia-ficción. Es inquietante ver que el gerentedel laboratorio de IA del MIT se entregue a absurdos vuelos de lafantasía durante una entrevista televisada supuestamente seria. El pú blico merece algo mejor.

En la misma entrevista Fredkin dijo lo siguiente: «Lo único quese interpone entre nosotros y los sistemas inteligentes es [que] hayunas pocas cosas que aún no sabemos hacer»30. Esto ocupa uno de

los lugares de honor en el deporte de la exageración. Habría estadomás próximo a la verdad decir que hay unos pocos millones de cosasque no sabemos hacer. Y lo que es más importante, ni siquiera sabemos si esas cosas desconocidas se pueden hacer. La búsqueda de lainteligencia computational puede ser como una alquimia del presente: la búsqueda de un imposible. La investigación en IA no ha

 producido aún ninguna indicación firme de que un computador seael tipo de máquina adecuado para sustentar la cognición artificial.

Es triste decirlo, pero incluso los logros de algunos programasreales de IA se han exagerado en el folklore de la disciplina. El programa de damas de Samuel es un ejemplo. He dicho anteriormenteque este programa es un vencedor de campeones. Esto es cierto, y seanuncia con orgullo en toda descripción que he leído del programa31.Pero lo que no se menciona habitualmente es que sus victorias sobrecampeones se limitan a una partida con un campeón, que luego ganóal programa seis veces seguidas32. Un artículo periodístico afirmaba

29 The Times Higher Educational Supplement , 10 de octubre de 1986.30 Better Mind the Computer, BBC TV.31 Por ejemplo, Samuel, A. L., «Some Studies in Machine Learning Using the

Game of Checkers», p. 103-4.32 Véase Shurkin, J., «Computer Pioneer and his Historic Program still Active at

Stanford», p. 4. (Debo esta referenda a Hubert Dreyfus.)

Page 146: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 146/416

150 Inteligencia artificial. Una introducción filosófica

que este programa «puede derrotar a todos los mejores jugadores del

mundo, salvo a unos pocos», y en la misma línea un libro reciente

afirma que el programa «finalmente ha alcanzado la condición de ju-

gador de "categoría mundial”»33. No tanto sobre valorado como nonato, se encuentra Hacker, el fa-

moso programa autor de programas de Sussman. Las descripciones

 populares no mencionan que este programa nunca fue term inado34.

 No es que Hacker sea una ficción: muchos de sus componentes están

escritos y contrastados. Pero nunca existió una versión completa. Se

le viene a uno a la memoria la sentencia de Herb Simon: «En el

mundo de los computadores, el momento de la verdad es el de ejecu-tar el programa; lo demás es profecía»35.En un articuló muy citado, Newell y Simon afirman que «la intui-

ción, sabiduría y áprendizaje ya no son propiedad exclusiva de los se-

res humanos: también se puede programar para que muestre estos

rasgos cualquier computador de alta velocidad» 36. Entusiasmados

con su tema, continúan: «La forma más sencilla de resumir la situa-ción es decir que en el mundo hay ahora máquinas que piensan, que

aprenden y que crean»37. Luego predicen confiadamente lo que sigue:

1. Que dentro de diez años el campeón mundial de ajedrez será

un computador digital, a menos que las reglas le impidan

competir.

2. Que dentro de diez años un computador digital descubrirá y

demostrará un nuevo e importante teorema matemático.

3. Que dentro de diez años un computador digital escribirá mú-

sica que los críticos tendrán por portadora de un considerablevalor estético38.

Estas predicciones, hechas en 1957 sin más base que algún tosco precursor del GPS, eran verdaderamente audaces. En 1965 Simon

33  Life, 20 de noviembre de 1970, p. 61; Turkle, S., The Second Self, p, 279.34 Véanse Sussman, G, J.,  A Computer Model o f Skil l Acquis ition, nota 2, y

Minsky, M., «Adaptive Control: From Feedback to Debugging», p. 123.

35 Simon, H. S., The Shape o f Automation, p. XV.

36 Simon, H. S. y Newell, A., «Heuristic Problem Solving: the Next Advance in

Operations Research», p. 6.

37 Simon, H. S. y Newell, A., Ibidem , p. 8.

38 Simon, H. S. y Newell, A., Ibidem , p. 7.

Page 147: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 147/416

Los hechos 151

elevó aún más las apuestas: «Las máquinas serán capaces, dentro deveinte años, de hacer cualquier tarea que pueda hacer un hombre»39.

Hace tiempo que han pasado los plazos de diez y veinte años y no

se ha cumplido ninguna de estas grandiosas predicciones. A los investigadores de la IA esto les divierte más que entristece. Hablando de estosfallidos intentos de anticipar el futuro, dice Marvin Minsky con tododescaro: «Las afirmaciones que se hicieron eran correctas, pienso, porque la IA es posible y acabaremos por aprender a hacer máquinas máslistas incluso que lo que prometieron las más desenfrenadas especulaciones. Pero las estimaciones [temporales] fueron breves.,.»40.

Investigadores de IA de todas las nacionalidades han continuadohaciendo predicciones dudosas. En 1982, los científicos que trabaja ban en el proyecto japonés de la Quinta Generación declararon quehacia 1990 sus computadores poseerían sentido común y serían capaces de entender la conversación humana, con un vocabulario de másde 10.000 palabras41. Sin embargo, la más rica fuente de pronósticosdesenfrenados han sido los laboratorios de IA de los Estados Unidos.Hans Moravec, director del Laboratorio Robot Móvil de Carnegie

Mellon, ha afirmado recientemente que dentro de cincuenta años serán comunes los robots con inteligencia humana42. «Nosotros, loshumanos, nos beneficiaremos de su trabajo durante algún tiempo»,dice, «pero tarde o temprano, como los niños naturales, se buscaránla vida mientras nosotros, sus. ancianos padres, desapareceremos ensilencio»43.

Es difícil asegurar dónde comienza la exageración peregrina ydónde comienza el engaño deliberado. El extracto siguiente procede

de un panfleto publicitario distribuido por Cognitive Systems, Inc.,una compañía de software fundada por Roger Schank, director de investigación del laboratorio de IA de Yale.

39 Simon, H. S., The Shape o f Automation , p. 96. (Debo esta referencia a HubertDreyfus.)

40 Procedente de una entrevista con Pamela McCorduck, recogida en su Machines 

Who Thinky p. 189.41 Moto-oka, T., y Kitsuregawa, M., «The Fifth Generation Computer: The Japanese Challenge», pp. 80-1; Moto-oka, T., y otros, «Challenge for Knowledge Information Processing Systems. (Preliminary Report on Fifth Generation Computer Systems)», pp. 27-8.

42 Moravec, H.,  M ind Children: The Future o f Robot and Human Intelligence, p .6 .

43Ibid.,p.l.

Page 148: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 148/416

152 Inteligencia artificial. Una introducción filosófica

 Nuestros programas entienden el inglés, no un lenguaje de programación parecido al inglés, sino el inglés coloquial ordinario (o el francés, o el alemán, oel idioma que usted quiera)... Los programas de lenguaje natural de Cogni

tive Systems son únicos porque son inteligentes... Damos a nuestros programas el mismo tipo de conocimiento que usa la gente, así que nuestro programa comprende una oración de la misma manera exactamente que una

 persona, y responde en inglés ordinario44.

Las predicciones fallidas y las pretensiones exageradas han producido una grave reacción contra la IA. La revista  New Scientist  declaraba recientemente que «la cantidad de engaños públicos de la IA no

tiene paralelo en los anales de los estudios académicos»45. Con un es píritu parecido, Hubert Dreyfus ha acusado a los investigadores de laIA de dejación de su deber profesional de poner en claro los límitesreales de su conocimiento actual y de los resultados que hasta ahorahan logrado46.

Estas críticas son bien merecidas; Pero los críticos han de tenercuidado de no echar todo por tierra. El oprobio vertido sobre Newelly Simon por sus famosas predicciones está completamente fuera de

lugar. Es lamentable que su artículo, ampliamente citado, haya dado pie a abrigar falsas impresiones sobre la cuantía del progreso real dela investigación en IA. Sin embargo, Newell y Simon fueron perfectamente sinceros sobre el carácter puramente especulativo de sus predicciones y hablaban de «escudriñar el futuro y predecir su forma»47.Sin duda, los científicos tienen el deber de especular sobre dónde nos

 puede llevar una innovación técnica importante, teniendo cuidado, por supuesto, de aclarar cuáles de sus afirmaciones son informacióncontrastada y cuáles representan especulaciones honestas, y Newell ySimon tuvieron ese cuidado. Es muy beneficioso que los expertos im

 plicados cataloguen responsablemente las posibles consecuencias deun nuevo desarrollo tecnológico.

Lapidar a los investigadores de la IA por hablar del futuro conoptimismo excesivo es, en esencia, castigarlos por su entusiasmo vis

44 Citado en Winograd, T., y Flores, F., Understanding Computers and Cognition, p. 128.

45 Roszak, T., «Smart Computers at Insecure Stage», p. 47.46 Dreyfus, H. L., What Computers Can’t Do  (segunda edición), p. 79; Dreyfus,

H. L., y Dreyfus, S. E., M in d Over Machine, pp. 13-15.47 Simon, H. S., y Newell, A., «Heuristic Problem Solving: the Next Advance in

Operations Research», p. 9.

Page 149: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 149/416

Los hechos 153

ceral, Pero sin entusiasmo, la ciencia se abandona. Es bueno que loscientíficos jóvenes y brillantes lleguen a la IA con la sensación de quetodos los problemas principales se resolverán dentro de una o dos dé

cadas, y cuanto más tiempo mantengan esa ilusión, mejor (es bueno sicreemos que la búsqueda de la inteligencia artificial es buena, claroestá). Como observador externo, me permito el lujo de creer que eléxito, si llega, no es probable que acontezca en vida de ninguno de losinvestigadores que trabajan actualmente en la IA, pero si los jóvenesque comienzan sus carreras pensaran así, estarían menos dispuestos acomprometerse.

5.4. Programar el sentido común

Esta sección contempla más de cerca el problema del conocimiento (presentado en la sección 5.2), pues es uno de los puntos clavede la IA. «El área en que la inteligencia artificial ha tenido mayor dificultad es la programación del sentido común», escribe Terry Wino-

grad, creador de Shrdlu. Y continúa: «Desde hace tiempo se ha reconocido que es mucho más fácil escribir un programa que efectúeoperaciones formales abstrusas que captar el sentido común de un

 perro» 48. El progreso en IA está estancado, al menos de momento.«Probablemente la crítica más aguda del trabajo actual en inteligenciaartificial es que todavía no ha conseguido construir modelos de loque se llama sentido común», dice David Waltz, una figura destacadaen el desarrollo de programas de IA. «Hay que crear modelos de la

cognición humana sustancialmente mejores antes de poder diseñarsistemas que puedan realizar las más simples de las tareas de sentidocomún»49.

Sólo se puede pasar de los micromundos a la realidad si se pueden suministrar a los computadores porciones del vasto almacén deconocimientos del mundo real que los seres humanos usamos paraandar por la vida. Sin embargo, la comunidad de la IA todavía notiene ninguna idea firme para hacerlo, si es que se puede hacer. Esteobstáculo para el progreso en el desarrollo de máquinas semejantes alos humanos se conoce como «problema del conocimiento de sentido común».

48 Winograd, T., y Flores, F., Understanding Computers and Cognition, p. 98.49 Waltz, D. L., «Artificial Intelligence», p. 122.

Page 150: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 150/416

154 Inteligencia artificial. Una introducción filosófica

Gran parte de nuestro conocimiento de sentido común es tan or-

dinario que apenas nos damos cuenta de que lo tenemos. Los siguien-

tes ejemplos ponen de relieve el grado en que incluso las más simples

tareas presuponen una masa de conocimiento trivial pero decisivo.

 Lea el siguiente pasaje y responda luego las dos preguntas.

A Tomás le acababan de dar un nuevo juego de bloques. Estaba

abriendo la caja cuando entró Jaime.

 Pregunta primera: 

l  Quién estaba abriendo la caja?

 Pregunta segunda:

¿Qué había en la caja?50

Las preguntas son tan fáciles que apenas hay que pensar en ellas.

Pero desde el punto de vista de un programador, esta facilidad es ilu-

soria. Intentemos hacer una lista de todas las cosas que necesitamossaber para obtener las respuestas. Generalmente sólo se da un nuevo

 juego de bloques a una persona. «Estaba» generalmente se refiere a

una persona; los bloques no son personas; es habitual que un regalo

de objetos pequeños y de forma regular venga en una caja; normal-

mente una persona abre los regalos al momento de recibirlos...

 ¿A qué refiere la palabra «ellos» en cada una de las oraciones si-

 guientes?

Los policías rehusaron dar permiso para manifestarse a los estu-

diantes porque ellos temían la violencia.

Los policías rehusaron dar permiso para manifestarse a los estu-diantes porque ellos promovían la revolución51.

Adviértase que en la estructura de las oraciones no hay nada quenos sirva de pista, pues sólo difieren en las tres palabras finales, que

constan de un verbo en activa, un artículo y un nombre. Entendemos

quiénes son «ellos» en cada caso sólo porque traemos a colación una

gran cantidad de conocimientos refinados. Y si usted se encuentra en

mi situación, le será más difícil tematizar este conocimiento que en elejemplo anterior.

50 Winograd, T., «Artificial Intelligence and Language Comprehension», p. 10.

51 A daptado de un ejemplo que da W inograd en Understanding Natural   

 Language, p. 33.

Page 151: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 151/416

Los hechos 155

Una vez captada la idea de que sabemos una tremenda cantidadde minucias triviales, se nos empiezan a ocurrir ejemplos. Para llegara un lugar hay que ir en dirección a él (en conjunto); para sobrepasar

un objeto primero hay que moverse hacia él y luego alejarse de él;con una cuerda se puede tirar, pero no empujar; empujar algo generalmente afecta a su posición; un objeto que esté encima de un objetoempujado se mueve generalmente con él, pero no siempre; el aguafluye hacia abajo; los seres humanos generalmente no salen a la calledesnudos, mientras que en circunstancias normales ningún animal nohumano lleva ropa; para los seres humanos generalmente es más fácilcaminar hacia adelante que hacia atrás; los seres humanos general

mente hablan con la boca abierta y comen con la boca cerrada; lascausas, por lo general, preceden a sus efectos; el tiempo transcurreconstantemente y los acontecimientos futuros se convierten en acontecimientos pasados; tener un recortasetos que funcione impide habitualmente desear otro exactamente igual; tener un billete de cinco li bras no impide habitualmente desear otro exactamente igual..., etc.52.Los computadores tendrán que conocer una inmensa cantidad de tri

vialidades para comportarse inteligentemente en el mundo real y, loque tiene igual importancia, para relacionarse inteligentemente conseres humanos.

A veces, cuando intento explicar el problema del conocimiento a personajes de la ciencia de la computación, se encogen de hombros, ydicen cosas como: «Bueno, así que el computador se tiene que tragaruna enciclopedia con un buen índice. No es para tanto.» Para apreciar la ingenuidad de esta respuesta basta con echar un vistazo a nues

tra enciclopedia favorita e intentar desglosar lo que hay que conocerantes de poder entenderla. Quizá el computador se tenga que tragaruna enciclopedia de miscelánea, pero esa enciclopedia tendrá que serinmensamente más refinada que ninguna de las escritas hasta ahora(como veremos en la sección 5.6).

La imagen de hacer que el computador «trague» semejante volumen incide en los tres difíciles problemas del almacenamiento y recu

 peración de la información. ¿Cómo se organiza esta vasta colección

de datos en la máquina? ¿Cómo se actualiza? ¿Cómo se puede hacerque la máquina se entere de qué hechos son pertinentes para cada tarea? Éstos son problemas enormes y no resueltos, y cuando se com-

52 Muchas'de estas ilustraciones están tomadas de las obras de Minsky, Lenat yH. Dreyfus.

Page 152: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 152/416

156 Inteligencia artificial. Una introducción filosófica

 para su dimensión con los logros de la IA hasta la fecha, éstos pare-cen ciertamente insignificantes.

5.5. Datos y «saber cómo»

Existe la opinión de que el conocimiento se puede representar(«capturar») por medio de oraciones o recursos simbólicos semejan-tes. Llamaré a ese modelo del conocimiento modelo del dato. El mo-delo del dato es el modelo del conocimiento que los defensores dela hipótesis del sistema de símbolos poseen por lo general (sec-

ción 4.6)53. Sin duda este modelo vale para gran parte de nuestro co-nocimiento. Por ejemplo, el conocimiento de que las tortillas se ha-cen con huevos batidos se representa en una enciclopedia de cocina

 por medio de la cadena de símbolos «las tortillas se hacen con huevos batidos», y en la base de datos de un computador este conocimientose representaría de manera más o menos similar, pero usando bits envez de letras latinas. Un supuesto básico de la IA tradicional es queeste modelo vale para todo tipo de conocimiento 54. La corriente

 principal de la investigación está comprometida con la creencia deque cualquier conocimiento se puede programar en un computador bajo la forma de una estructura simbólica que represente la informa-ción del caso, en el mismo sentido en que la estructura simbólica «lechampagne est un vin see pétillant» representa simbólicamente el he-cho de que el champán es un vino seco burbujeante (las estructurassimbólicas implicadas son denominadas habitualmente datos; de aquí

la tenninología «modelo del dato»).¿Se puede convertir todo el conocimiento humano en datos?

¿Qué pasa con el conocimiento de cómo se hacen las cosas, y en par-ticular el saber cómo que no se puede adquirir simplemente leyendoun libro; por ejemplo, hacer una tortilla de verdad, o qué expresioneso gestos adoptar cuando nos presentan a un miembro atractivo delsexo opuesto? La respuesta tradicional de la IA es que incluso esosconocimientos se pueden convertir en datos: el truco es usar estruc-

53 La hipótesis del sistema de símbolos no implica el modelo de los datos: la pri-mera puede ser verdadera aunque el segundo sea incorrecto. Véase el estudio sobre lasimulación de la sección 10.9,

54 Véase Newell, A., y Simon, H. A., «Computer Science as Empirical Enquiry:Symbols and Search».

Page 153: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 153/416

Los hechos 157

turas condicionales, del estilo de «si ella sonríe, tú sonríe también».Según este punto de vista, la representación de cualquier cuerpo particular de conocimientos del tipo «saber cómo» consiste en una

enorme colección de complicadas reglas condicionales. Éste es, en realidad, el método empleado para programar tal conocimiento en lossistemas expertos. Es demasiado pronto para decir si se puede ono tratar satisfactoriamente el «saber cómo» bajo la forma de datos.Pero no se puede estar seguro55. Fijémonos en un infante humano.Cuando tiene delante el pezón de mamá, se acerca y chupa. ¿Tiene elcerebro infantil almacenada una estructura simbólica del estilo de «sise te acerca lo suficiente un pezón, agárralo y chupa»? Puede, pero

 puede que no. Puede que tenga mecanismos que le hagan comportarse de la forma descrita en esa oración sin que la oración —ni nadasemejante— esté almacenada en su interior56.

Mamar es una conducta refleja, pero mi pregunta se aplica tam bién a los conocimientos del tipo «saber cómo» aprendidos. Cuandome sale una tortilla perfecta, ¿es porque mi cerebro ha llegado a adquirir un conjunto adecuado de reglas condicionales, que inconscien

temente sigo, o se basa mi dominio de la sartén y la espumadera enun tipo de mecanismo enteramente distinto? Es cierto que mis acciones se pueden describir mediante oraciones condicionales: si la mezcla se empieza a pegar, entonces agito la sartén, etc. Pero de esto nose sigue que mis acciones estén producidas mediante un dispositivode mi cerebro que escrute listas de reglas condicionales de este tipo (yasí es como funcionan los sistemas expertos).

He aquí, pues, dos esbozos de lo que podría haber debajo de la

actividad de los seres humanos que depende de conocimientos. Deacuerdo con el primero, el conocimiento del tipo «saber cómo» estáalmacenado en nuestro cerebro en forma de datos, e inconscientemente «leemos» las estructuras de símbolos y hacemos lo que nos dicen. El segundo es aún más resumido: ese conocimiento no se almacena en nuestro cerebro bajo la forma de datos, sino de otra manera:llamémosla X. Con la ciencia del cerebro aún en su infancia, sólo es

55 Para discusiones escépticas de lo que yo llamo modelo del conocimiento de losdatos, véanse Winograd, T., «What Does It Mean to Understand Language?», pp. 226-7;Winograd, T. y Flores, F., Understanding Computers and Cognition, capítulos 4 y 8;Dreyfus, H. L., What Computers Can't Do (segunda edición), capítulos 5 y 8.

56 Obsérvese que en esta alternativa también se excluyen los métodos de almacenamiento, puesto que asimismo son estructuras simbólicas.

Page 154: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 154/416

158 Inteligencia artificial. Una introducción filosófica

tán apuntadas las teorías de cuál podría ser el método X (el capí-tulo 10 describe la teoría más reciente). Cada propuesta tiene sus de-votos apasionados. Sin embargo, es probable que lleve décadas averi-

guar la verdad del asunto.Supongamos que el cerebro usa el método X. ¿Qué consecuencias

tendría esto para la hipótesis del sistema de símbolos? Quizá nin-guna. Puede que el método de los datos ofrezca un medio alternativode tratar el conocimiento con la misma efectividad, en cuyo caso elcielo seguirá sonriendo a la IA tradicional. Pero puede que el sistemanervioso humano emplee el método X por la poderosa razón de quesea el único método general para almacenar conocimiento que fun-

ciona, y puede que se demuestre que X es algo que es incapaz de ha-cer un computador.

5.6. El proyecto CYC

El CYC (cuyo nombre viene de «encyclopaedia») es en muchossentidos el proyecto señero de la corriente dominante en IA en la ac-tualidad. Representa la más dura prueba para la hipótesis del sistemade símbolos y del modelo del conocimiento como datos. El CYC esuno de los pocos proyectos de IA que se toma en serio el problemadel conocimiento de sentido común. El proyecto comenzó en la Mi-croelectronics and Computer Technology Corporation en Texas, en1984, con una inversión inicial de 50 millones de dólares. Su objetivoes construir una base de conocimientos que contenga una porción

significativa del conocimiento de sentido común («realidad consen-suada») de los occidentales del siglo XX. El jefe del proyecto, DougLenat, afirma que a finales de 1994 la base de conocimientos debecontener entre el 30 y el 50 por 100 de la realidad consensuada57.

«La mayor parte de la investigación en IA que conocemos está enla actualidad estancada», dice Lenat58. «No creemos que haya ningúnatajo para ser inteligente; el “secreto” está en tener montañas de co-

57 Lenat, D. B., y Feigenbaum, E. A., «On the Thresholds of Knowledge», pp. 212,

223.58 Lenat, D. B., y Feigenbaum, E. A.,  Ib idem , pp. 199. En el texto, las citas de

obras conjuntas se atribuyen (por razones de estilo) al autor principal. Las notas a piede página citan a los coautores.

Page 155: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 155/416

Los hechos 159

nocimientos»59. Habla con dureza de sus proyectos anteriores  AM  y Eurisko:

En cada nuevo dominio había un revuelo de actividades prometedoras, quetenían como resultado descubrimientos inesperados, seguidos de un periodode descenso de la productividad, y se caía por último en nimiedades inútiles...A pesar de su relativa riqueza de conocimientos, las limitaciones últimas deestos programas derivaban de su pequeño tamaño... Lo importante es saber si podemos aprender algo, descubriéndolo o porque nos instruyan, si ya casi loconocemos... Marvin Minsky [ha dicho que] «cuanto más sabemos, más (ymás deprisa) podemos aprender». La inversa de esta relación habilitadora esuna relación deshabilitadora, y eso es lo que, en última instancia, condenó a AM  y a  Eurisko: si para empezar no se sabe gran cosa, no se puede esperaraprender mucho y rápido... La IA debe alcanzar un estadio en el que... elaprendizaje empiece a acelerarse gracias a la cantidad de lo ya conocido60.

Lenat compara el problema del conocimiento de sentido comúnen la IA con «un colchón en la carretera» 61. Bloquea el camino, aun-que algunos vehículos ligeros hayan encontrado medios pintorescos

 para rodearlo por la cuneta o campo a través. Estos vehículos ligerosson los sistemas expertos, cuyas bases de conocimiento están hechas ala medida de ciertas tareas específicas. En vez de afrontar directa-mente los difíciles problemas de la representación del conocimiento,los programadores de'sistemas expertos usan trucos sucios para es-quivarlos, que sólo son posibles debido a las estrechas ambiciones delos sistemas expertos.

Uno de los rasgos bien conocidos de los sistemas expertos es

su fragilidad: un pequeño golpe en uno de sus puntos débiles les hacecaer. Lenat cree que la fragilidad es un síntoma de falta de conoci-mientos.

[Los sistemas expertos] operan sobre una plataforma elevada de conoci-miento y competencia hasta que... se precipitan a niveles de ínfima incompe-tencia. La gente padece también esa dificultad, pero su plataforma es más an-cha y la pendiente más suave... Puesto que carecen... de conceptos simples del

sentido común, los errores de los sistemas expertos parecen ridículos en tér-

59 Lenat, D B., y Guha, R. V., Building Large Knowledge-Based Systems, p. XVII.60 Lenat, D. B., y Feigenbaum, E. A., «O n the Thresholds of Knowledge», pp. 202,

203,208.61 Lenat, D B., y Guha, R. V., Building Large Knowledge-Based Systems, p. 4.

Page 156: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 156/416

160 Inteligencia artificial. Una introducción filosófica

minos humanos. Por ejemplo, cuando un programa de financiación de coches aprueba un préstamo para un adolescente que escribe que ha estado enel mismo trabajo durante veinte años, o cuando un programa de diagnóstico

de enfermedades de la piel concluye que mi oxidado Chevrolet, ya de diezaños, tiene sarampión 62; o cuando un sistema médico prescribe una dosis absurda de una droga para una paciente de la Maternidad cuyo peso (80) y edad(35) fueron intercambiados accidentalmente al tomar los datos. Conformeconstruimos programas cada vez más complejos y los investimos de más poder, el humor se disipa rápidamente63.

Una vez que emergen errores semejantes, no se necesitan más que

unas pocas líneas de código para asegurarse de que nunca volverán aocurrir. Sin embargo, lo interesante de Lenat es que no importa con»tra cuántos errores de este estilo protejamos al programa: siempreaparecerán otros. Mantiene que la única solución general es dotar alos sistemas expertos de sentido común64. Su esperanza es que el proyecto CYC culmine en una base de conocimientos que pueda servirde fundamento para futuras generaciones de sistemas expertos (su

 predicción optimista es que hacia el 2015 nadie «soñará en comprar

una máquina sin sentido común, igual que hoy nadie compra uncomputador personal que no pueda ejecutar hojas de cálculo o procesadores de texto»65).

El CYC es un proyecto de gran alcance que entraña codificar amano unos cien millones de enunciados. Al final de los primeros seisaños se había introducido más de un millón de enunciados en la basede conocimientos66. Lenat dice que esta cifra representa «algo menos... del 0,1 por 100... de la realidad consensuada», y estima que lle

vará varios siglos del trabajo de dos personas llevar esta cifra a los 100millones de enunciados que cree necesarios para que el CYC co

62 Programa: ¿Hay manchas en el cuerpo?Usuario: Sí.

 Programa: ¿De qué color son las manchas?Usuario: Castaño rojizo.

 Programa: ¿H ay más manchas en el tronco que en otros sitios?Usuario: No. Programa: El paciente tiene sarampión.(Lenat, D. B., y Guha, R. V., Building Large Knowledge-Based Systems, p. 2).

63 Lenat, D. B., y Feigenbaum, E. A., «On the Thresholds of Knowledge», pp. 196-7.64 Lenat, D B., y Guha, R. V., Building Large Knowledge-Based Systems, p. 7.65 Guha, R. V., y Lenat, D. B., «CYC: A Mid-Term Report», p. 57.66 Guha, R. V., y Lenat, D. B., Ibidem, p. 54.

Page 157: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 157/416

Los hechos 161

mience a aprender sólo de forma útil67. En un momento dado puedenestar enroladas treinta personas en el proyecto CYC, todas introduciendo datos simultáneamente68. Estos suministradores de conoci

mientos analizan artículos de periódico y de revista, entradas de enciclopedias, anuncios, etc., oración por oración. Introducen en la basede conocimientos no sólo lo que se expresa explícitamente, sino tam

 bién, lo que es más importante, los hechos que quien escribe suponeconocidos por quien lee. Como ya hemos visto, muchos son de talnaturaleza que sería ofensivo formularlos explícitamente (los seres vivos enferman, el agua fluye hacia abajo, los productos de los procesosindustriales son más valiosos que las materias primas, los objetos só

lidos tienen tendencia a impedir que otros objetos sólidos ocupen elmismo volumen de espacio que ellos...)69.

Lenat se desvive por destacar que el CYC no es una simple enciclopedia electrónica. Describe el CYC como más bien, «el complemento de una enciclopedia»70. El fin primordial del proyecto es codificar el conocimiento que cualquier persona o máquina debe poseerantes de poder entender una enciclopedia.

La obra de Lenat y sus colegas da testimonio satisfactorio de la reciente aproximación entre la IA y la filosofía. La parte principal de losesfuerzos del proyecto no se ha empleado en introducir datos, sino enáreas que desde hace tiempo han sido interés fundamental de los filósofos: la ontología, la epistemología y la lógica71. No hace mucho era casiuna tradición entre la gente que se dedicaba a las ciencias «duras» mofarse de estos tres campos implacablemente abstractos de indagación.La sinergia reciente de la IA y la filosofía proporciona otro ejemplo de

la retribución repentina e inesperada de la investigación «pura» (¡quetomen nota las instituciones financiadoras!). Lenat presenta el CYC«como la primera incursión de la humanidad en ingeniería ontoló-gica»72.

La ontología es la teoría general de lo que hay. Permítanme dedicar un párrafo a algunos de los temas ontológicos pertinentes para la

67 Lenat, D. B., y Guha, R. V.,  Building Large Knowledge-Based Systems, p. 352;Lenat, D. B., y Feigenbaum, E. A., «On the Thresholds of Knowledge», pp. 189, 210,212, 223; Lenat, D. B., y Feigenbaum, E. A., «A Reply to Brian Smith», pp. 232, 233.

68 Lenat, D. B., y Feigenbaum, E. A., «On the Thresholds of Knowledge», p. 223.69 Lenat, D. B,, y Feigenbaum, E. A., Ibidem , pp. 197,219.70 Guha, R. V., y Lenat, D. B., «CYC: A Mid-Term Report», p. 34.71 Lenat, D. B., y Feigenbaum, E. A., «On the Thresholds of Knowledge», p. 220.72 Lenat, D B., y Guha, R. V., Building Large Knowledge-Based Systems, p. 23.

Page 158: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 158/416

construcción de CYC. Lo que se nota en estos problemas es su prístina dificultad.

La cuestión ontológica más fundamental que afrontan Lenat y su

equipo es: «¿Qué tipos de objetos hay?» La respuesta que han adoptado provisionalmente (y que se ha usado para estructurar el marcode representación de CYC) es: objetos tangibles, objetos intangibles,compuestos (como las personas, que tienen una parte tangible y una

 parte intangible), acontecimientos y objetos matemáticos 73. La mayoría de los filósofos diría que esta división es demasiado basta. Senecesitan más categorías básicas. La categoría de CYC «objeto intangible» no es más que un cajón de sastre. Contiene, cosas tan disparescomo la recesión mundial* los dolores de la gente (puedes tocar«donde duele», pero no el dolor), las galernas del norte, las propiasrepresentaciones internas de CYC y el significado de la oración «Laguindilla pica». Tampoco está claro que la categoría de acontecimientos pertenezca a esta lista: puede que los acontecimientos no sean enabsoluto un tipo de objetos74. Dos objetos diferentes no pueden estaren el mismo lugar al mismo tiempo, pero parece que dos aconteci

mientos pueden: Alfredo puede simultáneamente saltar el río y huirde la embestida del toro. El reto que este ejemplo contiene implícitamente para quien piense que los acontecimientos son objetos esenunciar lo que llamamos «condiciones de identidad» para los acontecimientos. La afirmación de que los acontecimientos son objetosestá en arenas movedizas a menos que se pueda dar una explicacióngeneral de las condiciones en que un acontecimiento X y un acontecimiento Y cuentan como uno y el mismo objeto (y por tanto, el coro

lario de las condiciones bajo las cuales cuentan como dos objetos diferentes). (Es un proverbio filosófico que no hay entidad sinidentidad.) Pasando a los significados, ¿es verdaderamente un objetoel significado de «la guindilla pica»? Acaso hablar del «significado»de una oración sea simplemente una abreviatura para hablar de otrascosas demasiado complejas y mezcladas para que las mencionemos enel curso de una conversación ordinaria: alguna extraña conexión devibraciones del aire, marcas sobre el papel y disposiciones de conducta. O quizá el significado de una oración sea un objeto matemá

í 62 Inteligencia artificial. Una introducción filosófica

73 Guha, R. V., y Lenat, D. B., «CYC: A Mid-Term Report», p. 41; Lenat, D B., yGuha, R. V., Building Large Knowledge-Based Systems, pp, 172, 175-6.

74 EÍ estudio clásico del lugar ontológico de los acontecimientos es Davidson, D.,«The Logical Form of Action Sentences».

Page 159: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 159/416

Los hechos 163

tico (o lógico) en vez de intangible: el conjunto de los mundos posi- bles en que la oración tiene el valor de verdad «verdadero», por ejem- plo. La estación final de este recorrido relámpago por la ontología es

Papá Noel. ¿Es un objeto? Si no, ¿de qué podemos estar hablandocuando afirmamos que tiene una barba blanca? Pero si es un objeto,es un objeto inexistente, y qué clase de objeto es ése. ¿Puede haberalgo que no exista? 75

Por las mismas razones que el CYC necesita conocer que hacerun trabajo siempre requiere energía, necesita saber cosas tales como siobjetos diferentes pueden o no ocupar el mismo lugar al mismo

tiempo o si no todos los objetos existen. Es más, la riqueza del es-quema ontológico de CYC se reflejará en la calidad de las inferenciasque pueda extraer de la información que se le da. El CYC necesita

 poder decir que hay diferencias decisivas en las implicaciones lógicasde las afirmaciones de que Papá Noel tiene barba y que Mariñas tiene

 barba. Dado el acontecimiento «Juan, lentamente, untó una tostadade mantequilla en la cocina a las seis de la mañana», el CYC debe po-der inferir que Juan hizo algo76.

La epistemología es la teoría general del conocimiento. Los pro- blemas de la epistemología tienen a menudo la forma siguiente: ¿quéconoces cuando conoces que P (donde P es alguna proposición)? Unárea prominente de problemas alude a nuestro conocimiento de lasrelaciones causales*! ¿Qué es lo que conocemos cuando conocemosque el acontecimiento X causó otro acontecimiento Y? Por ejemplo,¿cómo hemos de analizar el conocimiento de Alfredo de que la coli-sión con la bola de billar a fue lo que causó el cambio en la trayecto-

ria de la bola de billar b}  La afirmación «X causó Y», ¿enuncia qúehay alguna clase de conexión necesaria entre X e Y, que el aconteci-miento X tiene algún género de «gancho», conocido o desconocido,que obliga a que Y suceda? O ¿simplemente enuncia que todos losacontecimientos suficientemente semejantes a X (incluido X) son, dehecho,, seguidos invariablemente p or acontecimientos del tipode Y ?77 El segundo análisis es mucho más débil que el primero: es

compatible con que las regularidades causales no sean más que coin-

75 En Proudfoot, D., «Fictional Events», hay una revisión de los intentos de expli-car satisfactoriamente las afirmaciones que incluyen entidades ficticias.

76 El ejemplo está adaptado de Davidson, op. cit., p. 105.77 El estudio clásico de este tema es la sección 7 de An Enquiry Concerning H u-

man Understandings de David Hume.

Page 160: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 160/416

cidencias (coincidencias universales, quizá, pero, a pesar de todo,coincidencias).

Dentro de unas pocas páginas me ocuparé de si el método que

emplea el CYC para representar las relaciones causales es apropiado.Lá lógica es la teoría del razonamiento. El CYC hace uso de una

herramienta nueva y poderosa conocida como lógica no monotó-nica78. Una inferencia es no mono tónica si no es monotónica, y unainferencia es monotónica si sigue siendo válida aunque añadamoscualesquiera premisas. He aquí un ejemplo de inferencia monotónica:

 Premisa 1: Todos los filósofos tienen cerebro. Premisa 2: Sócrates era un filósofo.Conclusión:  Sócrates tenía cerebro.

La conclusión se sigue no importa qué premisas adicionales añadamos: «Sócrates era griego», «Sócrates tenía una cabeza desusadamente pequeña», etc. (Se sigue incluso aunque añadamos la negaciónde una o de las dos premisas iniciales: «No todos los filósofos tienen

cerebro», «Sócrates no era un filósofo». Esto puede parecer difícilde aceptar de primeras. Lo explicaré más adelante, dentro de esta .sección).

Una inferencia no monotónica, por el contrario, puede dejar devaler cuando se le añaden premisas. A partir de la información de queBiggies es un ave y las aves vuelan, el CYC debería poder extraer lainferencia de sentido común de que Biggies vuela. Sin embargo, elCYC debe poseer mecanismos que le permitan retractarse de esta

conclusión «por defecto» si luego tiene noticia de que Biggies es unkiwi de Nueva Zelanda y los kiwis no tienen alas79. El campo de lalógica no monotónica es el estudio de estos mecanismos. Uno de losmecanismos que se incluyen en CYC se conoce como el sistema de

 preservación de la verdad, TMS 80. Cada conclusión que obtiene elCYC está «adherida» a las premisas de la que fue derivada. Cuando

164 Inteligencia artificial. Una introducción filosófica

78 McCarthy, J., «Circumscription - A Form of No n-M onotonic Reasoning»;McDermott, D., y Doyle, J., «Non-Monotonic Logic I».79 El ejemplo del ave que no vuela y la propuesta de desarrollar lógicas no monotó-

nicas se deben a Marvin Minsky.80 Doyle, J., «A Tru th Maintenance System». Son términos alternativos para este

tipo de mecanismo «sistema preservador de las razones» y «sistema preservador de las justificaciones». (Las tres terminologías están bien difundidas; la de Doyle es la primera.)

Page 161: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 161/416

Los hechos 165

el CYC se da cuenta de que ha obtenido una conclusión que está enconflicto con otra obtenida anteriormente, retrocede a las premisasempleadas en cada caso y las vuelve a examinar: «Biggies es un ave» y

«las aves vuelan» en el caso de «Biggies vuela», y «Biggies es un kiwi»y «los kiwis no tienen alas» en el caso de «Biggies no puede volar».Cuando el CYC mira la letra pequeña correspondiente a la afirmación «las aves vuelan» ve que sólo es verdadera para las aves típicas, yencuentra el kiwi indicado como ave anormal a este respecto 81. Deesta forma, el CYC a menudo es capaz de decidir cuál de las conclusiones en conflicto debe retirar.

¿Tendrá éxito el proyecto del CYC? Puede que no. Lenat no le damás que un 50 o un 60 por 100 de probabilidades de éxito (aunquedado que el postulado en que se apoya el proyecto —la hipótesis delsistema de símbolos— es una completa incógnita, hay pocos motivos

 para tomar en serio ninguna cifra)82. Puede que simplemente la mani pulación de símbolos no sea la ru ta hacia la inteligencia artificial.Puede que la fragilidad de los sistemas expertos no sea el resultado desu falta de conocimientos, en cuanto tal, sino de la inadecuación del

modelo del conocimiento como conjunto de datos. Puede que incrementar los datos en órdenes de magnitud sea como intentar reflotarun barco añadiéndole más lastre. Si el proyecto fracasa, eso puede, según dice Lenat, «darnos una indicación de si el paradigma simbólicoes defectuoso y por qué»83. Pero puede que no lo sea. El proyecto

 puede fracasar simplemente por la pura dificultad de la tarea, y noiluminamos mucho sobre la verdad o falsedad de sus supuestos fundamentales.

Las metas específicas que tiene Lenat para el proyecto son las siguientes. Primero, aproximarse hacia 1994 al «punto álgido... en queserá más económico continuar la construcción de la BC [base de conocimientos] del CYC haciéndole leer directamente materiales (li bros de texto, literatura, periódicos, etc.84) y hacerle preguntas sobreellos que continuar el tipo de “cirugía cerebral” que empleamos en laactualidad»85. Lenat y sus colaboradores parecen confiar en que a finales de 1994 la mayor parte de los problemas ontológicos y de re

81 Guha, R. V., «The Representation of Defaults in CYC».82 Lenat, D, B,, y Guha, R. V.,  Building Large Knowledge-Based Systems, p. 21.83 Guha, R. V., y Lenat, D. B., «CYC: A Mid-Term Report», p. 57.84 Lenat, D. B., y Guha, R. V.,  Building Large Knowledge-Based Systems,  p. 357.85 Lenat, D. B., y Feigenbaum, E. A., «On the Thresholds of Knowledge», p. 212.

Page 162: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 162/416

166 Inteligencia artificial. Una introducción filosófica

 presentación habrán sido resueltos, y los diversos mecanismos decontrol —para la lógica, la inducción, la analogía, los índices, la ac-tualización, la búsqueda de información pertinente, etc.— estarán

esencialmente completados y no necesitarán después ninguna o pocamodificación manual (y lo mismo los diversos mecanismos específi-cos para funciones tales como el procesamiento del lenguaje). La se-gunda fase de aprendizaje del proyecto (leer materiales) terminará afinales del 2001, y «culminará en un sistema con un conocimiento deamplitud y profundidad humanas»86. La inteligencia artificial está «anuestro alcance», asegura Lenat87.

Me agrada el activo pragmatismo de Lenat. («Sí, uno se puede

sentar durante décadas y lamentar la impenetrable mística del inte-lecto humano... o puede sentarse e intentar penetrarla... [P]ensamosque nuestras horas de investigación se emplean mejor intentandoconstruir grandes bases de conocimientos de sentido común»88.) Yotambién creo que la mejor manera de averiguar cómo —y cómo no—se construye una gran base de conocimientos es ponerse manos a laobra e intentar construir una; estoy seguro de que el proyecto del

CYC remunerará el dinero invertido con diversas contrapartidas tec-nológicas. Pero hay que evitar las grandes predicciones. El problemadel conocimiento de sentido común,, con los problemas que contienede ontología, epistemología y control, es, con mucho, el más duroqué ha afrontado jamás la ciencia de la computación. Puesto que Le-nat cree que en esta fase del proyecto están más o menos completoslos preparativos ontológicos y epistemológicos, ahora pone su aten-ción en la tarea ciclópea de introducir conocimientos (esto es, teclear

los datos). Quita importancia a la inquietud de que el CYC puede ne-cesitar refinadas estructuras de control y métodos de razonamientoahora desconocidos, e insiste en que sólo se ha de invertir en esos te-mas un 20 por 100 del esfuerzo89. En mi opinión, Lenat se equivoca.En la detallada crítica del CYC que sigue sugiero que se ha dedicadoa estos asuntos una atención insuficiente. No sostengo, ni mucho mernos, que no se puedan resolver, con tiempo y esfuerzo, los problemasespecíficos que describo. Pero afirmo que la idea de producir «un sis-

u   Lenat, D. B,, y Feigenbaum, E. A., «On the Thresholds of Knowledge», p. 224.87 Lenat, D. B., y Feigenbaum, E. A.,  Ibidem, p. 188.88 Lenat, D. B., y Feigenbaum, E. A., «Reply to Brian Smith», pp. 236, 241.89 Lenat, D. B., y Feigenbaum, E. A., «On the Thresholds of Knowledge», p. 192.

Lenat, D. B., y Feigenbaum, E. A., «Reply to Brian Smith», p. 234.

Page 163: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 163/416

Los hechos 167

tema con un conocimiento de amplitud y profundidad humanas» a principios del próximo siglo no es más que un absurdo. La inteligencia artificial, en la actualidad, no está a nuestro alcance.

Ontología

Lenat informa de que los cinco primeros años del proyecto losemplearon principalmente en el problema de diseñar una ontologíaadecuada de la que colgar el marco representacional de CY C90. Esterespetable esfuerzo, en mi opinión, apenas ha arañado la superficie.Sin embargo, el 2001 está a la vuelta de la esquina; como dice BrianCantwell Smith, colega y crítico de Lenat: «No es tanto que (elequipo CYC) piense que la ontología ya está resuelta, como que pro

 pongan realizar, en un periodo de tiempo relativamente modesto, loque a otros ha ocupado sus vidas enteras»91. Como es de prever, lassoluciones adoptadas por el equipo CYC para los problemas ontoló-gicos son a menudo precipitadas. He aquí un caso.

 ¿ Qué es una sustancia?

¿Qué tipo de cosa es una sustancia? La respuesta de Lenat, incor porada en la ontología del CYC, es que una sustancia es el conjunto(o colección) de todas sus instancias. Tomando, pues, un ejemplo es

 pecífico, se afirma que la sustancia oro es el conjunto de todas las ins

tancias particulares de oro que hay (pepitas, anillos, gargantillas,dientes, etc.)92. Esta propuesta tiene varias dificultades serias.

1) Un pedazo de mena aurífera puede contener más cuarzo queoro. ¿Cuenta este pedazo de mena como una instancia de oro? Cualquier respuesta, sí o no, conduce a dificultades. Si sí, entonces el

 pedazo debe también contar como una instancia de cuarzo. Portanto, el pedazo es miembro del conjunto de todas las instancias deoro y del conjunto de todas las instancias de cuarzo. Así que la sustancia oro y la sustancia cuarzo se superponen. Pero esto no deberíaocurrir: el oro y el cuarzo son dos sustancias enteramente distintas.

90 Lenat, D. B., y Feigenbaum, E. A., «O n the Thresholds of Knowledge», p. 220.91 Smith, B. C , «The Owl and the Electric Encyclopaedia», p. 255.92 Lenat, D. B., y Guha, R. V., Building Large Knowledge-Based Systems, p. 156 y ss.

Page 164: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 164/416

168 Inteligencia artificial. Una introducción filosófica

En efecto, si ocurriera qüe todas las instancias de oro contuvieranalgo de cuarzo, y viceversa, entonces la propuesta de Lenat estimaríaque el oro y el cuarzo son la misma sustancia. Si no, entonces el pe

dazo no participa del conjunto de instancias del oro. Así, la sustanciaoro y el pedazo de mena serían ajenos. Moraleja: la sustancia oro nose puede identificar con el conjunto de todas las instancias de oro.

2) Una persona o empresa puede poseer los derechos de manufactura sobre una sustancia, pero es absurdo decir que se pueden poseer los derechos de manufactura sobre un objeto matemático comoun conjunto. (Como dice Lenat en otro contexto, «los conjuntos soncosas intangibles, imperceptibles, son construcciones matemáticas» 95).

3) Algunas sustancias son más valiosas que otras, pero pareceabsurdo decir que algunos conjuntos son más valiosos que otros. Lenat no puede escabullirse de esta y otras objeciones similares insistiendo en que «la sustancia oro es valiosa» significa realmente «todomiembro del conjunto de las instancias de oro es valioso». La razónes que estas dos oraciones tienen implicaciones lógicas diferentes. La

oración «la sustancia oro es valiosa» implica que si mi cubo hubierasido de oro habría sido valioso. Puesto que mi cubo no es de oro, noes un miembro del conjunto de las instancias del oro, de modo que laoración «todo miembro del conjunto de las instancias de oro es valioso» no implica nada sobre mi cubo. Por tanto, las dos oraciones no

 pueden ser de significado equivalente. Espero que Lenat eludiría ladesesperada medida de intentar incluir el «objeto contrafáctico» mi-cubo-habiendo-sido-de-oro del conjunto de objetos que se supone

constituyen la sustancia oro. De lo contrario, ya no podría afirmarque toda instancia de oro se funde a 653° C, o tiene una densidad de8,3. ¿Por qué debería tener mi-cubo-habiendo-sido-de-oro el mismo

 punto de fusión que las instancias reales de oro? Sin duda habrá situaciones contrafácticas en que el oro —ese metal maleable, dúctil,soluble en agua regia y de peso atómico 179— tiene un punto de fusión de 652° C (igual que hay situaciones contrafácticas en las cualesusted tiene un centímetro más de estatura o el cabello de diferentecolor).

4) Las sustancias devienen. Tomemos los elementos creados artificialmente. Antes de este siglo no había, por lo que sabemos, nin-93

93 Lenat, D. B., y Guha, R. V., Building Large Knowledge-Based Systems^   p. 181.

Page 165: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 165/416

Los hechos 169

guna sustancia einsteinio. Sin embargo, los conjuntos son intemporales, no vienen a la existencia ni dejan de existir. Como dice elmismo Lenat, los conjuntos «viven por siempre en el universo plato-

nico»94.5) Los conjuntos se pueden multiplicar (podemos formar el lla

mado producto cartesiano de cualesquiera dos conjuntos), pero parece absurdo decir que se pueden multiplicar dos sustancias.

6) El número de objetos de un conjunto (la cardinalidad delconjunto) es una de las propiedades esenciales del conjunto: esencialen el sentido de que si el número fuera diferente no sería el mismoconjunto, sino un conjunto diferente. El número de instancias deloro no es, sin embargo, una propiedad esencial de la sustancia oro. Laoración «él oro habría sido una sustancia diferente si hubiera habidouna cosa de oro más que las que de hecho hay» es falsa, pero es verdad qué si hubiera habido más cosas de oro, entonces el conjunto delas instancias de oro habría sido un conjuntó diferente.

7) Los conjuntos son idénticos si tienen el mismo número demiembros. Supongamos que (por un acto divino) todo el oro del uni

verso dejara de existir excepto mis dientes de oro* Supongamos además, en aras de la simplificación, que todos mis dientes son de oro.Según la propuesta de Lenat, la sustancia oro es el conjunto de lasinstancias de oro. Así, puesto que ahora es el caso que el conjunto delas instancias de orb es el conjunto de mis dientes, tenemos el resultado de qué la sustancia oro y el conjunto de mis dientes son una y lamisma cosa. Esto no es plausible —menos aún si reflexionamos en elhécho de que en ese caso la oración «La sustancia oro solía tener más

instancias que ahora» dice ni más ni menos que el conjunto de misdientes solía tener más instancias que ahora.

Mientras el tamaño de la base de conocimientos esté por debajodel 0,1 por 100 de la realidad consensuada, es muy probable que lassimplificaciones y errores de la ontología del CYC no se pongan demanifiesto éii la actuación* Sin embargo, si los filósofos tienen razónen destacar la importancia de una ontología correcta, entonces, conforme crezca en tamaño la base de conocimientos, los errores, indudablemente, perturbarán la actuación del CYC. Como dice Lenat enun extracto de su proyectado  Manual del ingeniero ontológico: «Encualquier base de conocimientos, y para cualquier agente inteligente,

94 Lenat, D. B., y Guha, R. V.,  Building Large Knowledge-Based Systems, p. 159.

Page 166: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 166/416

170 Inteligencia artificial. Una introducción filosófica

es esencial hacer las distinciones adecuadas para poder organizar yabarcar la complejidad del mundo real»95.

C   a u s a l i d a d

El método que se emplea en el CYC para representar las afirmaciones causales, afirmaciones de la forma «X causa Y», es muy sim

 ple: la aserción de que X implica y recibe una etiqueta con el símbolo«causal». La forma de CYC de representar el enunciado de que X esla causa de Y:

Causal (X 3 Y)96

<o» es el símbolo de lo que los lógicos llaman implicación material.Generalmente se lee como «si, entonces» o «implica». Así, la manerade leer 

llueve z> iremos al museo

es «si llueve, entonces iremos al museo». Por tomar un ejemplo particular, el hecho de que la gasolina tenga agua causa que el motor falle. Se representa así:

Causal (hay agua en la gasolina z> el motor falla).

Démonos cuenta de que la implicación etiquetada causal (X  z>Y)indica dos cosas:

i) «X z>Y» es verdadero, yii) «X 3 Y» es un enunciado causal97.

95 Lenat, D. B., y Guha, R. V.,  Building Large Knowledge-Based Systems,  p. 149.96 Guha, R. V., y Lenat, D. B., «CYC: A Mid-Term Report», p. 47; Guha, R. V.,

«The Representation of Defaults in CYC», p. 5. «Causal» es metalingüxstico. Lenat yGuha prefieren registrar explícitamente esto en su notación mediante el empleo de comillas. Así, escriben: causal («x z> y»).

97 Por motivos de simplicidad, aquí trato «causal» como una especie de operadormodal. Lenat y Guha (op. cit.) prefieren recoger la afirmación de que la implicaciónmaterial es verdadera mediante un elemento sintáctico más. Así, «es verdad que Xcausa Y» lo representan como: ( X d   Y ) &   causal («X  z>Y»). La abreviatura que em plean para el contexto completo es «(causa X Y)».

Page 167: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 167/416

Los hechos 171

La etiqueta «causal» no es más que un marcador o pegatina.Quienes suministran conocimientos etiquetan ciertas implicacionesde la base de conocimientos con «causal» igual que ciertos objetos del

mundo de Shrdlu tienen las etiquetas «rojo», «verde» y «azul».(Shrdlu, recordemos, no capta en absoluto lo que significan los tér-minos de color; en la jerga carece de semántica para los términos decolor.) Ya he indicado que el problema de qué significa «X causa Y»es uno de los más difíciles de la epistemología. Hay varias respuestas

 provisionales en la plaza. El CYC no tiene ninguna respuesta, sóloetiquetas. El CYC no tiene una semántica para el término «causal».

Por tomar una analogía, podría definir un «enunciado general»

como una oración que contiene la palabra «todos» o la palabra«cada». Equipado con este criterio, alguien que no conociera la len-gua podría seleccionar los enunciados generales aunque no tuviera niidea de qué significan las palabras «todos» ni «cada». Similarmente, elCYC puede (a veces) decir si una implicación es causal con sólo com-

 probar si está o no etiquetada.Este método para representar la causalidad tiene diversas debili-

dades. La más grave surge del hecho de que si Y es verdadero, enton-ces la implicación X   d  Y es verdadera, con independencia de si X esverdadero o falso (y con independencia incluso de si es relevante paraY). Esta curiosa propiedad de la implicación material se puede encon-trar en la tabla de ia nota98 (esta tabla de verdad es la definición se-mántica de la implicación material). Así, las dos implicaciones si-guientes son ambas verdaderas porque es verdad que usted, en algúnmomento, morirá:

Listed lee otro libro de filosofía Z) usted morirá.Usted no vuelve a leer otro libro de filosofía z> usted morirá.

Consideremos el hecho de que un coche que pase por encima deuna alubia hervida causará que la alubia se aplaste, y tomemos una

98 La tabla de verdad de o » es la siguiente). Lea las líneas en sentido horizontal.

Enunciado X Enunciado Y X o Y

Verdadero   Verdadero Verdadero

Verdadero   Falso Falso

 Falso   Verdadero   Verdadero

 Falso   Falso Verdadero

Page 168: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 168/416

172 Inteligencia artificial. Una introducción filosófica

alubia particular chafada de la cual sea falso este cuento: si un cochele hubiera pasado por encima, ciertamente la habría aplastado, perolo que de hecho la aplastó fue el tenedor de Alfredo. Puesto que es

verdad que (cuando el tenedor de Alfredo descendió sobre ella) laalubia se aplastó, la siguiente implicación es verdadera (por la propie-dad de <o» recién mencionada):

El neumático del coche pasa por encima de la alubia z> la alubia seaplasta.

Esto no es una buena noticia para la representación.

Causal (el neumático del coche pasa por encima de la alubia o   laalubia se aplasta).

Puesto que la implicación es verdadera y además expresa una relación causal auténtica (porque ser atropellado es el tipo de acontecimiento que produce que algo se aplaste), está apunto de caramelo

 para que se le adhiera la etiqueta «causal». Ésta es una situación into

lerable: si «causal (X z> Y)» se puede afirmar cuando X no es la causade Y, entonces esta fórmula no es una representación satisfactoria dela causalidad (El problema es perentorio sobre todo cuando una

 base de conocimientos razona hacia el pasado, partiendo de la verdadde Y y de «causal (X z>Y)», para obtener X.)

Lo que resulta es que la técnica de etiquetar no se puede usar junto con la implicación material. Y no es fácil remendar la situación.El problema de conseguir un análisis formal satisfactorio de la implicación que evite las curiosas propiedades de la implicación material seha mostrado resistente 10°. Diversos lógicos trabajan en el problema yespero que lo hayan desentrañado para el año 2001, pero que nadiecontenga el aliento hasta entonces.

 El problema de la proyección temporal 

Éste es un caso particular del problema del marco, o problemade actualizar una gran base de conocimientos (véase sección 5.2)99*101.

99 Estudio una dificultad emparentada en «What is Computation?».300 Para un examen general, véase Jackson, F. (comp.), Conditionals.,£>) Hanks, S., y McDermott, D., «Default Reasoning, Nonmonotonic Logics, and

Page 169: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 169/416

Los hechos 173

Supongamos que la base de conocimientos contiene una colecciónde enunciados razonablemente extensa sobre una situación o dis

 posición dados, incluidos enunciados sobre qué causa qué en esa

situación. Para mantener fidedigna su descripción de la situación,la base de conocimientos tiene que poder computar las consecuencias de estos acontecimientos. Esto no se puede hacer, ni de lejos,directamente.

He aquí una ilustración «de juguete» de la dificultad conocidacomo el problema de los disparos en Yale102. La situación involucra aFreda y a un asesino con una pistola. La base de conocimientos sabeque Freda está viva cuando el asesino carga la pistola en el momento t. La base de conocimientos sabe también que:

1) Si a un ser humano le disparan una pistola cargada, muere(inmediatamente).

La afirmación, desde luego, es una simplificación, pero, como decía, el ejemplo sólo es de juguete. La pistola no es disparada durante

dos minutos. Á1 final de éste lapso, el asesino sale de su escondite,coge a Freda por el pelo y aprieta el gatillo a quemarropa. Al oír estainformación, un ser humano actualizará su descripción de la situación con el enunciado «Freda está muerta» (o «Freda está probablemente muerta», si es una persona cauta). ¿Puede hacer esto la base deconocimientos?

La base de conocimientos sabe que:

2) A menos que las circunstancias sean anormales, si se cargauna pistola en el momento £, entonces, a menos que se dis pare, seguirá cargada en t  + 2 minutos.

Esto es parte del conocimiento general sobre disparos que tiene la base de conocimientos. Así, si la base de conocimientos supone que

the Frame Problem»; McCarthy, J., «Applications of Circumscription to FormalisingCommon-Sense Knowledge». El problema de la proyección temporal se conoce como«problema Hanks-McDermott».

102 Hanks, $., y McDermott, D., «Default Reasoning, Nonmonotonic Logics, andthe Frame Problem».

Page 170: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 170/416

i 74 Inteligencia artificial. Una introducción filosófica

las circunstancias son normales (con respecto a que la pistola esté cargada) puede inferir que la pistola seguirá cargada en 14- 2 y luego usar 1) para concluir que Freda está muerta. Sin embargo, la base de cono

cimientos también sabe que:

3) A menos que las circunstancias sean anormales, una cosa queestaba viva en el momento t, seguirá viva en el t+2  minutos.

Las afirmaciones que, como 2) y 3), dicen que un hecho persistenormalmente se conocen como axiomas marco. La base de conocimientos usa este axioma exactamente de la misma manera que usaba2) , pero esta vez infiere que Freda sigue viva en t  + 2. Entonces puedeconcluir a partir de 1) que la pistola no estaba cargada en t+2.

Así, la base de conocimientos vacila sobre cómo actualizar. Hallegado a dos candidatos en conflicto: «la pistola estaba todavía cargada en t + 2 y Freda está muerta» y «la pistola estaba descargada entre í y t + 2 y Freda está aún viva». En la primera se satisface elaxioma marco 2) y falla el axioma marco 3); en la segunda, se satisface

3) y falla 2). Éste es el problema de la proyección temporal: en gene-i'al habrá diferentes maneras de actualizar una descripción, todas ellascompatibles con los hechos explícitamente enunciados y cada una entraña el fallo del mismo número de axiomas marco. El problema dela proyección temporal es universal. Cualquier mecanismo de actualización basado en axiomas marco debe incluir un método para abordarlo.

Guha (corresponsable del proyecto CYC) ha propuesto una solu

ción del problema de la proyección temporal103. La propuesta utilizalas representaciones de la causalidad de CYC. Si despojamos las dosactualizaciones posibles y las dejamos en lo esencial, la primera esque Freda cambia de estado en t + 2 (de viva a muerta) y la segundaes que la pistola cambia de estado entre t y t + 2 (de cargada a descargada). Guha señala que en la narración hay información sobre lacausa del primero de estos cambios (disparan a Freda), pero no hayinformación sobre la causa del segundo. ¿Fue un milagro? ¿Estaba elasesino dividido entre deseos opuestos? Guha asegura que al CYC sele pueden suministrar fácilmente los recursos para sacar partido deesta asimetría y seleccionar el primer candidato. Pues CYC sabe que:

103 Guha, R. V., «The Representation of Defaults in CYC», pp. 7-8; Guha, R. V., yLenat, D. B., «CYC: A Mid-Term Report», pp. 37,46-7.

Page 171: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 171/416

Los hechos 175

Causal (a persona X le disparan con una pistola cargada 3 per-sona X muere).

Así, el cambio de estado de Freda queda subsumido por un enun-ciado causal que CYC conoce. CYC puede comprobar las actualiza-ciones de cambios de estado propuestas que no son abarcadas porenunciados causales y luego seleccionar el candidato que tenga menornúmero de cambios de estado no subsumidosI04.

Esta solución es artificial. Por desgracia, sólo funciona si se exclu-yen ciertos enunciados causales de la base de conocimientos. El cam- bio de estado de la pistola está abarcado si CYC sabe que:

Causal (alguien quita las balas de la pistola 3 la pistola no estácargada)105.

Ciertamente ayudaría a CYC a salir del problema de los disparosen Yale retirar la información de que quitar las balas manualmente esuna forma de causar que la pistola esté vacía, pero se hace duro acep-tar que esto sea una fórmula para dar una solución general al pro-

 blema de la proyección temporal.La propuesta de Guha tiene una segunda dificultad más profunda.

Puesto que CYC es un razonador de sentido común, debería ser ca- paz de concluir que la causa del vaciado de la pistola no fue la activi-dad de los diodos luminosos del reloj digital de Freda. Este conoci-miento se representa por medio de una afirmación de la forma

 N O (causal (X 3 Y))

(donde Y es «la pistola no está cargada» y X el enunciado acerca delos diodos luminosos). Es claro que no se puede interpretar que estaafirmación cubre el cambio de estado de la pistola. Y, sin embargo,contiene la etiqueta «causal». Así, cuando CYC comprueba lo queestá subsumido y lo que no, no basta con buscar una afirmación quecontenga la etiqueta «causal» y la implicación «X 3 Y», siendo Y el

104 Guha, R. V., «The Representation of Defaults in CYC», p. S.105 No importa que no aparezca en la historieta el antecedente de esta segunda im-

 plicación etiquetada («alguien quita las balas de la pistola»). Tampoco lo hace el ante-cedente de la primera («a X le disparan con una pistola cargada»). Los dos casos soncompletamente simétricos.

Page 172: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 172/416

176 Inteligencia artificial Una introducción filosófica

acontecimiento comprobado. La etiqueta tiene que estar en la posición adecuada. Pero ¿cuál es esa posición? ¿Debe ser la etiqueta elsímbolo principal o dominante? No.

(Causal (X z> Y)) CONJUNCIÓN (causal(Y Z))

valdría para cubrir el hecho de que Y acontezca, pero el símbolo principal es C O N J U N C I Ó N . (Para reconocer el símbolo principal basta con contar los paréntesis. El símbolo rodeado por menor número —posiblemente cero— de paréntesis es el principal. Se dice quelos siguientes símbolos en este orden tienen profundidad dos, etc.Así, en este ejemplo, ambos «causal» tienen profundidad dos, y lasdos apariciones de <o» tienen profundidad tres). Supongamos que

 probamos con «la etiqueta debe ser el símbolo principal o (suponiendo que el símbolo principal no es «NO») tener profundidad dos».Tampoco esto funciona.

 N O ((causal (X z> Y)) DISYUNCIÓN (NO (causal (X =>Z))))

valdría para subsumir Z (pues contiene «causal (X z> Z)»). Y así sucesivamente. En realidad no hay ninguna «posición adecuada» quedeba buscar CYC. El método de etiquetar no proporciona ningúnmedio sencillo de establecer si la base de conocimientos conoce o nouna posible explicación causal de un acontecimiento dado!06.0

I0& Si se emplean etiquetas, entonces ha y que abandonar la idea de un criterio de posición. En vez de eso, lo obvio es probar con un criterio de implicación: ¿ Puede la base de conocimientos demostrar un teorema de la forma «3P(causal(P3Y))» donde«3» es un cuantificador interpretado como sustitucional? (Se encuentra una descripción de la cuantificación sustitucional en mi «Substitutional Quantification and Existence»). Por desgracia, el CYC tiene dificultades para aplicar tal criterio. El CYC

 puede saber que

(causal(X 3  Y)) O (causai(Z 3  Y))

y sin embargo no poder demostrar 

3P (causal(P 3  Y))

El mecanismo general de inferencia sólo es completo con respecto a las cláusulascornu tas (Guha, R. V.,  y  Lenat, D. B., «CYC: A Mid-Term Report», p. 42). Esto sig*nifica que el CYC será muchas veces incapaz de hacer inferencias que, desde nuestro

Page 173: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 173/416

£,os hechos 177

Antes dije que la situación actual de CYC con respecto a la causalidad es análoga a la de alguien a quien se dice que un «enunciado general» es cualquier enunciado que contenga la palabra «todos» o la

 palabra «cada». Consideremos cuánto más le aprovecha decirle a esa persona (o a una máquina) que un «enunciado universal» es cualquieroración que significa que todo objeto tiene cierta propiedad. Esta

 persona o máquina podría asegurar que:

Todos los objetos tienen masa

es universal; que

Es falso que al menos un objeto no tenga masa

es universal, y que

 No todo objeto tiene masa

no es universal El equipo CYC está, conceptualmente, muy lejos de poder proporcionar a su base de conocimientos un recurso semejante para la causalidad.

 Pertinencia

En un lugar anterior de este capítulo he mencionado que uno delos principales problemas de control de una base de conocimientosgrande es el de la búsqueda pertinente. Lenat informa de que CYCno es lo bastante grande para que este problema acucie107. Conforme

 punto de vísta, son evidentemente correctas. Sólo está garantizado que el CYC hará lainferencia cuando las premisas y la conclusión estén formadas por cláusulas cornutas.

Una cláusula cornuta es uñ enunciado cuya forma normal disyuntiva no tiene más deuna subfórmula inmediata que carezca del prefijo N O. Así, «A O N O B» es una cláusula cornuta, y también lo es «(NO A) O (NO B)». Pero «A O B» no es una cláusulacornuta. Tampoco ló es

(causal(X o Y))0(causal(Z Y)).

107 Guha, R. V., y Lenat, D. B., «CYC: A Mid-Term Report», p. 54.

Page 174: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 174/416

178 Inteligencia artificial. Una introducción filosófica

crezca, habrán de desarrollar estrategias para abordar la pertinencia.Guha y Levy formulan claramente las cuestiones:

Es bien sabido que la actuación de la mayoría de los mecanismos de inferencia (en especial los que operan sobre cuerpos de conocimiento declarativo[esto es, los que operan de acuerdo con el modelo del dato]) se degrada drásticamente conforme la base de conocimientos... aumenta. Es necesario encontrar una solución de este problema para que el paradigma declarativo délugar a sistemas utilizables, La idea principal que sugiere una solución es que,aunque la base de conocimientos puede ser muy grande, para cada tarea dadasólo se usa una porción muy pequeña de ese conocimiento. Si se pudieraidentificar a priori esa porción, el tamaño del espacio de búsqueda se podríareducir, y con ello acelerar la inferencia108**.

La noción de pertinencia es extremadamente escurridiza. Guha yLevy dan lo que para ellos es un ejemplo de clara no pertinencia (estoes, un hecho que claramente no se debe tomar en cuenta al resolverun problema especificado). Si el problema a resolver es determinar siAlfredo tomó o no el desayuno a las 8,30 de una mañana particular,

entonces no hace falta, dicen, considerar el precio del té en la Indiaí09.Pero ¿por qué? Si sucede que Alfredo tiene grandes inversiones en téindio y el mercado ha caído desmesuradamente, y se entera justo antes de sentarse a desayunar... Para cualquier par de circunstancias queescojamos, siempre habrá algún contexto en que una es pertinente

 para la otra.Este concepto de contexto que rodea es decisivo en materia de

 pertinencia. Abstraídas de un contexto, las cuestiones de pertinencia

tienen poco sentido no. Tomemos estas dos afirmaciones:

1. Durante los últimos ocho años las lluvias no han comenzadoen Malawi hasta finales de noviembre.

2. La producción de madera de Zambia ha crecido un 500 por100 durante el periodo 1972-1992.

La pertinencia de la segunda afirmación para la primera depende

del contexto. Si el proyecto presente es decidir las fechas del safari de

108 Guha, R. V., y Levy, A. Y., «A Relevance Based Meta Level», p. 1.í09 Guha, R. V., y Levy, A. Y.,  Ibidem , pp. 2-4.1,0 Véase mi artículo «Horseshoe, Hook and Relevance», así como «The Trouble

Anderson and Belnap Have with Relevance».

Page 175: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 175/416

Los hechos 179

la tía, entonces 2) no es pertinente; pero si el proyecto es buscar cau-sas posibles de los cambios de los patrones climáticos en el Áfricasubsahariana, entonces 2) es pertinente. Diferentes proyectos crean

diferentes contextos. Dado el carácter abierto del conjunto de pro blemas que se puede esperar que aborde CYC, la tarea de dar a la base de conocimientos información detallada sobre qué es pertinente para qué cosa, es, por decir poco, un problema urgente.

Lenat y sus colegas- no tienen propuestas radicalmente nuevas para tratar el problema de la pertinencia. Están dispuestos a apuntarse al enfoque que mencionaba Minsky en la cita anterior (que datade 1974): la base de conocimientos necesita poseer metahechos acercade cuándo se pueden usar fructíferamente los hechos que contiene ycuándo no. En CYC, estos hechos se representan'mediante afirmaciones llamadas axiomas de pertinencia. En CYC hay dos tipos deaxiomas de pertinencia, específicos y generales.

La idea que subyace a los axiomas específicos de pertinencia es que«se pueden jerarquizar las diferentes secciones de la base de conocimientos segúm su pertinencia para la tarea de resolución de problemas

del momento» m. Así, por ejemplo, si la tarea encomendada a CYC esresolver un problema de diseño de automóviles, la basé de conocimientos estará guiada en su búsqueda de información pertinente por unaxioma a propósito de que la sección automovilística es más importanteque la sección botánica (aunque no se puede desechar por entero la sección botánica, pues podría ser fuente de alguna analogía útil)U2. Axiomas como éste sin duda podan enormemente el espacio de búsqueda,

 pero cuando han operado, sólo dan la más basta de las orientaciones.

Los axiomas generales de pertinencia son formalizaciones de enunciados tales como:

 Proximidad temporal : es necesario limitarse a considerar acontecimientos que estén próximos temporalmente al acontecimiento o

 proposición del caso u3.

Cuando Guha y Levy explican y defienden este axioma dicen:«Es raro que ocurra un acontecimiento y... [después de] un período111112113

111 Blair, P., Guha, R. V., Pratt, W. «Microtheories: Au Ontological Enginneer'sGuide», p. 15.

112 Ibidem.

113 Guha, R. V., y Levy, A. Y., «A Relevance Based Meta Level», p. 7.

Page 176: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 176/416

180 Inteligencia artificial. Una introducción filosófica

de tiempo considerable... repentinamente manifieste sus efectos» 1H*Sin embargo, el hecho de que Jorge vistiera un traje alquilado (un esmoquin) en la boda de Matilde hace dieciocho meses puede ser muy

 pertinente para el hecho de que por fin haya abandonado su habitual brindis y haya escrito otro nuevo.

Los axiomas generales de pertinencia de CYC también se refierena la proximidad espacial y a la proximidad informacional: no es necesario considerar acontecimientos que ocurren lejos de la situación amenos que haya una conexión informacional entre ellos (por ejem

 plo, una línea telefónica)n5. También hay un axioma que enuncia quesólo es pertinente la información que posee el  grado de finura  adecuado. La información sobre la calidad del cosido del calzado deFreda es demasiado fina para ser pertinente para la cuestión de si estaba viva en t  + 2.

Estos axiomas presuponen un esquema efectivo de índices para la base de conocimientos. Esto es, presuponen una solución de lo queantes he llamado problema de la organización, un problema sobre elque, sorprendentemente, dicen poco Lenat y sus colegas114115116. Dado un

índice lo bastante bueno, estos axiomas de pertinencia permitirán aCYC quitarse de enmedio un enorme número de hechos mientrasestá buscando. Pero una vez que la base de conocimientos contengacientos de millones de afirmaciones, quedarán muchas al final del

 proceso de filtrado. Al fin y al cabo, por cada acontecimiento habráun número enorme de acontecimientos (con el mismo grado de finura) próximos desde el punto de vista espacial, temporal e informa-cional. La inmensa mayoría de éstos jamás serían tomados en cuenta

 por un ser humano (si la pantalla de TV se disuelve en líneas horizontales, no se nos ocurre ni por un momento la idea de que pueda ser

 pertinente haber dado un mordisco al bocadillo). Quizá la mejorforma de proceder sea construir un filtro más estricto añadiendoaxiomas de pertinencia. Puede que este enfoque funcione: no lo sa

 bremos hasta que se intente. Pero preocupa que la adición de losaxiomas necesarios de pertinencia engrosé el tamaño de la base de conocimientos. Puesto que la búsqueda pierde eficacia según crece la

114 Guha, R. V., y Levy, A. Y., «A Relevance Based Meta Level», p. 7.115 Guha, R. V., y Levy, A. Y., Ib idem , pp. 8-11.116 Brian Cantwell Smith tiene la misma impresión. «... no está claro cómo [Lenat y

compañía] piensan agrupar, relacionar e indexar sus marcos» («The Owl and the Electric Encyclopaedia», p. 269).

Page 177: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 177/416

Los hechos 181

 base de conocimientos, puede que los axiomas de pertinencia acaben por inflamar el problema que pretendían resolver.

Quizá el CYC nos enseñe que el problema de la pertinencia es

inabordable para una base de conocimientos organizada de acuerdocon el modelo del dato. Cuando resuelven problemas mundanos, incluso nuevos, los seres humanos parecen atinar de inmediato con lasideas pertinentes. Supongamos que durante la noche, en la cabeza dela estatua del pueblo ha aparecido un orinal; ¿acaso revolvemos todoslos hechos que podrían ser pertinentes? Probablemente no, aunquenunca hayamos visto ni oído cosa semejante. Si los seres humanos recorren el mismo proceso ingente de seleccionar y eliminar que elCYC, no hay señal de ello. Puede que, para las personas, la relaciónde pertinencia esté incorporada en la apreciación misma del pro blema. Quizá nuestras representaciones contienen «enlaces» que lasconectan con otras representaciones pertinentes; o, usando otra metáfora, quizá cuando una representación «se ilumina», también se«iluminan» automáticamente otras representaciones pertinentes. Según este modelo, no hace falta la búsqueda, computacionalmente gra

vosa, que caracteriza el enfoque de CYC de la localización de datos pertinentes. Por lo que hasta el momento se sabe, estos «eslabones de pertinencia» acaso sean imposibles de incorporar directamente en unmanipulador de símbolos. Quizá se necesiten representaciones encadenadas y distribuidas del tipo estudiado en el capítulo 10, en cuyocaso el método de los datos está condenado.

 Inconsistencia

De una colección de oraciones que entraña una contradicción sedice que es inconsistente.  Por ejemplo, una base de conocimientosque contenga a la vez «Carlos es legitimista» y «Carlos no es legiti-mista» es inconsistente. Una base de conocimientos puede ser inconsistente por muchos motivos, desde un error tipográfico hasta el desacuerdo inadvertido entre quienes le suministran conocimientos,

 pasando porque la propia base extraiga conclusiones en conflicto(como en el caso de Biggies, que a la vez vuela y no vuela). Por las razones que expondré, es importante restaurar una base inconsistentede conocimientos. Éste es uno de los problemas más ásperos.

Ya he aludido a que la conclusión del argumento acerca de Sócrates vale aunque a las premisas se añadan sus propias negaciones. Esto

Page 178: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 178/416

182 Inteligencia artificial. Una introducción filosófica

es tan importante en lógica que ha recibido un nombre, quodlibet  (que en latín significa «lo que quieras»: de una contradicción se siguela conclusión, que se quiera) U7. La demostración del quodlibet es

muy sencilla. Cuando S es un conjunto de oraciones y X una oración,la afirmación «X se sigue de S» (o, al revés, «S implica X») se definediciendo que S junto con la negación de X es un conjunto inconsis-tente de oraciones. Así, decir que «Sócrates era fontanero» se sigue delas premisas «Sócrates era macedonio» y «todos los macedonios sonfontaneros» es lo mismo que decir que las tres oraciones, «Sócratesera macedonio», «todos los macedonios son fontaneros» y «Sócratesno era fontanero» forman un trío inconsistente. Ahora bien, supon-

gamos que S ya es inconsistente. Entonces, S, junto con la negaciónde cualquier oración que queramos, es inconsistente. Por tanto, de Sse sigue cualquier oración que queramos. Añadir una oración nunca

 puede eliminar la inconsistencia. La única forma de restaurar la con-sistencia en un conjunto de oraciones es quitar oraciones: así, si S esinconsistente, entonces S más la negación de X está abocado a ser in-consistente m.

Supongamos que en la base de conocimientos programamos la si-guiente instrucción:

Si te preguntan si X es verdadero y, o bien X es una de las afirma-ciones que contienes, o bien se sigue de ellas, la respuesta es «sí».

Desgraciadamente, si una base de conocimientos que contieneesta instrucción llega a ser inconsistente, responderá  sí  a cualquier

 pregunta. Así, si a una base militar de conocimientos se le han pro- porcionado informes atmosféricos inconsistentes, responderá «sí» cuando le pregunten: «¿Somos víctimas de un ataque nuclear?»

¿Qué se puede hacer? Un primer movimiento obvio es modificarla instrucción.

n7   Abreviatura de «-ex falso quodlibet ».m Hay una demostración alternativa del Quod libet X se sigue de $ si no hay nin-

gún mundo posible en el que todos los miembros de S sean verdaderos y X falso. Su- pongamos que S es inconsistente. No hay ningún mundo posible en el que todos losmiembros de S sean verdaderos (a esto equivale la inconsistencia).  A fortiori,  no hayningún mundo posible en que todos los miembros de S sean verdaderos y X falso (seaX la oración que sea). Por tanto, X se sigue de S. (Para un estudio de estas cuestiones,véanse mis «On When a Semantics is no t a Semantics», «What is a Semantics for Clas-sical Negation?» y «Vagueness and Bivalence».)

Page 179: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 179/416

Los hechos 183

Si te preguntan si X es verdadero y, o bien X es una de las afirmaciones que contienes, o se sigue de ellas, la respuesta es «sí», a menos que NO X sea una de las afirmaciones que contienes, o  bien se

siga de ellas.

La segunda parte de esta instrucción reclama una «comprobaciónde consistencia»: la base de conocimientos debe asegurarse de que esconsistente antes de responder. El problema de las comprobacionesde consistencia es que pueden ser muy lentas (las bombas puedencaer antes de que la base de conocimientos decida si es o no consistente). Un problema más fundamental es que un programa de com

 probación de consistencia da respuestas equivocadas de vez encuando (ésta es una consecuencia de un resultado de la lógica matemática obtenido en 1936)119. Con todo, un mecanismo para compro

 bar la consistencia es mejor que ninguno, aunque sea lento y no deltodo fiable.

Supongamos que el «módulo de detección y resolución de contradicciones» de CYC detecta una inconsistencia. ¿Qué puede hacer

CYC?120 Ya he descrito la primera línea de ataque de CYC, su sistema de preservación de la verdad121. CYC vuelve a las premisas em pleadas para derivar las dos afirmaciones en conflicto y, si puede, rechaza una de ellas y descarta una de las dos inferencias en conflicto(para hacer esto, CYC emplea la información que le proporcionan lossuministradores de conocimientos, relativa a asuntos tales como cuálde las premisas es menos probable que sea falsa, cuál tiene excepciones conocidas, e tc.)122. Esto no siempre dará resultado: a menudo

CYC no sabrá cuál de las premisas rechazar. La segunda línea de ataque es jerarquizar las dos inferencias según «criterios de preferencia»y rechazar la que puntúe más bajo. Este enfoque vale tanto como loscriterios empleados, y todos los criterios de preferencia de CYC sonflojos. Algunos ejemplos son:

119 Church, A., «A Note on the Entscheidunsproblem». El resultado de Church seaplica a la lógica cuantificacional de primer orden. Hay lógicas cuantificacionales másdébiles, pero inferencialmente impotentes.

120 Lenat, D. B., y Guha, R. V.,  Building Large Knowledge-Based Systems',  p. 51.121 Lenat, D. B., y Guha, R. V.,  Ibidem , pp. 50-52; Guha, R. V., «The Representa

tion of Defaults in CYC», p. 5.122 Lenat, D. B., y Guha, R. V., Ibidem, p. 37; Guha, R. V., «The Representation of

Defaults in CYC».

Page 180: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 180/416

184 Inteligencia artificial. Una introducción filosófica

1) Preferir la inferencia que tenga un aspecto más causal123.

Se supone que este criterio discrimina inferencias como las invo

lucradas en el problema de los disparos en Yale. Como hemos visto*no funciona.

2) Preferir la inferencia con «menor distancia inferencial»I2L

Este criterio sólo es eficaz en un ámbito limitado de casos. En general no ha y razón para que sea más probable que tenga una conclusión verdadera una inferencia «más corta» que una inferencia «más

larga». La forma más general de definir la «distancia inferencial» esen términos del número de «pasos» de la inferencia. Por ejemplo, hacen falta tres pasos para inferir C de las tres premisas A 3 B, B 3 C yA (el primer paso es inferir B de A y A 3 B; recordemos que « 3 » se

 pronuncia «si entonces»). Es simplemente falso que cuantos menos pasos tenga una inferencia, más probable es que conduzca a una conclusión verdadera. Por ejemplo, una inferencia de sólo dos pasos llevadesde las dos premisas A y NO A a la conclusión de que el mundoacabó hace diez minutos. El argumento usa dos reglas de inferencia.La primera es:

De X inferir  N O ((N O X) CONJUNCIÓN (NO Y)).

Esto es, a partir de la premisa de que es el caso que X, se puedeinferir que X e Y no son a la vez falsos. (X e Y son oraciones cuales

quiera.) La segunda regla es:De  N O X y  N O ((N O X) CONJUNCIÓN (NO Y)) inferir Y.

Esto es, a partir de la premisa de que X es falso y la premisa deque X e Y no son falsos a la vez, se puede inferir que es el caso que Y.¿Puede usted encontrar el argumento de dos pasos? (La nota 125da larespuesta.)

m   Lenat, D. B., y Guha, R. V., Building Large Knowledge-Based Systems, pp. 37;Guha, R. V., «The Representation of Defaults in CYC», p. 5.

124 Lenat, D. B., y Guha, R. V., Ibidem , pp. 37; Guha, R. V., «The Representationof Defaults in CYC», p. 5.

525 Supongamos que «W» simboliza «El mundo acabó hace diez minutos». Usemosla primera regla para inferir No((N O A) CO N JU N CIÓ N (NO W)) a partir de la pre-

Page 181: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 181/416

Los hechos 185

3) Preferir los argumentos constructivos a los no constructivos126.

Es difícil ver por qué Lenat y Guha piensan que este criterio sirve

 para algo. Los argumentos constructivos son objeto de la lógica in-tuicionista, y hace tiempo se sabe que acogerse a esta lógica no ayudaa afrontar los problemas que engendra el quodlibet127.

El sistema de preservación de la verdad de CYC y sus criterios de preferencia, de vez en cuando no permitirán a CYC elegir qué miem bro de un par de afirmaciones en conflicto debe rechazar. En este punto, CYC puede hacer tres cosas: 1) Echar el cierre y esperar la intervención humana. 2) Poner en cuarentena todas las afirmaciones involucradas en la inconsistencia y arreglárselas sin ellas (una manerade hacerlo sería señalar que cada afirmación involucrada carece de valor de verdad conocido). Si el número de afirmaciones involucradases grande —y lo será si una (o ambas) de las afirmaciones en conflictoha figurado como premisa en un gran número de inferencias, o si seha empleado un gran número de premisas para derivar las afirmaciones en conflicto— esto puede producir una degradación considerable

de la actuación. 3) Echarle cara. Seguir y esperar que los efectos maléficos de la inconsistencia no se extiendan demasiado. Esta última parece ser la recomendación de Lenat.

 No hay necesidad —yi probablemente tampoco posibilidad— de alcanzaruna unificación global consistente de... [una] base de conocimientos muy

misa A. Usemos la segunda regla para inferir W a partir de esta conclusión intermedia

y la premisa N O A. [Ésta es una variante de la llamada primera prueba independiente,de C. I. Lewis (Lewis, C. L y Langford, C. H., Symbolic Logic, p. 250).] Observemosque la restricción a las cláusulas cornutas no sirve de ayuda en los problemas que ocasiona el quodlibet. Tal como está presentada la deducción, no todas las fórmulas soncláusulas cornutas. En particular NO ((NO A) Y (NO W)) no es una cláusula cornuta puesto que su forma normal disyuntiva es A O W. Esto se puede remediar aplicando la primera regla a la premisa NO A para obtener N O ((NO N O A) Y (NO W)), y aplicando luego la segunda regla a esta fórmula y a NO NO A para obtener W. Ahora ladeducción tiene tres pasos, pues se requiere uno más para obtener NO NO A a partir

de la premisá A. Todas las fórmulas de la deducción modificada son cláusulas cornutas(pues la forma normal disyuntiva de NO ((N O N O A) Y (NO W)) es (NO A) O W).En otras palabras, una base de conocimientos inconsistente puede construir deducciones con cláusulas cornutas de todos los enunciados que pueda expresar (basta con sustituir W por ellos). Además, cada una de las deducciones será muy corta: como muchotendrá tres pasos).

126 Guha, R. V., y Lenat, D. B., «CYC: A Mid-Term Report», p. 37.127 Véase Gentzen, G., «Investigations Into Logical Deduction».

Page 182: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 182/416

186 Inteligencia artificial. Una introducción filosófica

grande... Esperamos... que... [la opinión de que] las inconsistencias puedenexistir durante un breve periodo, pero... son errores y debemos encontrarlosy corregirlos... es una opinión idealizada, simplificada de lo que requieren los

sistemas inteligentes... ¿Cómo puede afrontar la inconsistencia el sistema?Consideremos el espacio de conocimientos, y, por tanto, la base de conoci-mientos, no como un cuerpo rígido, sino como un conjunto de receptáculossustentados de forma independiente... [C]omo en el caso de un gran edificiode oficinas, los soportes independientes deben hacer más fácil que el con- junto de la estructura sobrelleve los temblores de tierra como pequeñas ano-malías... [I]nferir una inconsistencia es sólo un poco más serio que el habitual«callejón sin salida» en que cae un investigador...128129

A mí éstas me parecen arenas movedizas. CYC no es una colec-ción de bases de conocimientos para sistemas expertos que trabajencon independencia, sino un todo único e integrado. El resultado delas inferencias obtenidas en un recipiente está a la disposición de losotros recipientes, y lo que está disponible se puede usar. Como diceLenat en un contexto distinto: «Puede  ser útil... un conocimientomuy remoto» í29. No hay ninguna razón a priori para pensar que los

efectos de la inconsistencia no se extenderán de recipiente en reci- piente, envenenando toda la base de conocimientos. En mi opinión,sería manifiestamente peligroso permitir que una base de conoci-mientos, dotada de una lógica y unos sistemas de control tan toscos*como los de CYC, continuara operando después de haber generadouna inconsistencia irremediable.

Está claro que quien quiera construir una gran base de conoci-mientos de sentido común, afronta problemas difíciles.

5.7. La barrera de la complejidad

El intento de construir una máquina que piense es un proyecto deuna complejidad imponente. Quedan por resolver problemas técni-cos espinosos (y el pesimista que hay en mí sospecha que esperan a

ser descubiertos otros aún más difíciles). Los investigadores hablande la necesidad de encontrar medios para organizar miles de millonesde hechos en la memoria del computador. Los grandes programas de

128 Lenat, D. B., y Feigenbaum, E. A., «On the Thresholds of Knowledge», pp. 217y 222.

129 Lenat, D. B., y Feigenbaum, E. A., Ibidem , p. 199. La cursiva es de ellos.

Page 183: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 183/416

Los hechos 187

IA contienen cantidades descomunales de líneas de código* Un com-

 putador moderno contiene muchas más conexiones eléctricas que

 personas hay en el planeta, pero se necesitará una ferretería muchí-

simo más complicada para emular la actividad de los billones de co-nexiones neuronales del cerebro humano. ¿Puede la mente humana

abarcar toda esa complejidad?

Terry Winograd, un programador de talento formidable, tenía

 problemas con Shrdlu: «El código presenta una masa densa, con po-

cos asideros. Incluso yo, que he escrito el programa, me encuentrocerca del límite de lo que puedo tener en la cabeza. Después de aban-

donarlo unos pocos meses, es muy difícil responder a las preguntassobre partes específicas de él, o anticipar los efectos de cambios pro-

 puestos» 130*Pero, contemplado en términos del fin último de la IA,

Shrdlu es un programa trivial.Sería una gran ironía que la hipótesis del sistema de símbolos

fuera correcta, pero el cerebro humano resultara demasiado frágil

como para construir una máquina que piense. Puede que los seres

humanos no estén a la altura requerida para romper la barrera de la

complejidad. Pero, hay que repetirlo, la IA está en su infancia. En elmomento presente, la inteligencia de los computadores es un campo

abierto al éxito... o al fracaso. El futuro tiene todos los veredictos.

130 Winograd, T., «Breaking the Complexity Barrier Again», p. 13.

Page 184: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 184/416

Capitolio 6

EL CURIOSO CASO DE LA HABITACIÓN CHINA

En los dos capítulos anteriores he argumentado que la cuestión desi un computador es la máquina adecuada para pensar es, usando la

 jerga filosófica, un asunto empírico, esto es, un asunto que sólo se puede decidir mediante la experimentación y el acopio de datos (la palabra «empírico» procede de la palabra griega que significa «expe-riencia»), No todas las cuestiones son empíricas. Comparemos «¿sontodos los oftalmólogos de Nueva York mayores de veinticinco

años?» con «¿son todos los oftalmólogos de Nueva York especialis-tas en la vista?» La primera hace una pregunta empírica, pero la se-gunda no. No hace falta investigar los oftalmólogos de NuevaYork

 para establecer que todos son especialistas en la vista, porque «oftal-mólogo»  significa  «especialista en la vista». Reunir datos no desem-

 peña ningún papel en responder una cuestión no empírica.El influyente filósofo norteamericano John Searle sostiene que es

un error tomar por empírica nuestra cuestión central. El problema desi un manipulador de símbolos podría ser capaz de pensar es, dice,rotundamente no empírica y, por tanto, reunir datos está fuera de lu-gar. A los ojos de Searle, es extemporánea mi actitud de esperar a verqué ocurre en los laboratorios de la IA. Afirma que podemos demos-trar, aquí y ahora, sin buscar datos, que la hipótesis del sistema de

188

Page 185: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 185/416

El curioso caso de la habitación china 189

símbolos es falsa. En su opinión, sostener esta hipótesis es igual que

afirmar que algunos oftalmólogos no son especialistas en la vista. La

única diferencia es que esto último entraña un error muy sencillo,

que se puede aclarar con abrir un diccionario, mientras que lo primero contiene un error mucho más sutil, que requiere un argumento

filosófico refinado para denunciarlo. Voy a examinar detenidamente

el argumento de Searle, que se ha venido a conocer como el argu

mento de la habitación china. Espero convencerles de que es falaz.

Para facilitar la comprensión del argumento de Searle, voy a re

cordar un acertijo que mencioné en el capítulo 4. Un computador es

simplemente un manipulador de símbolos. Lo único que hace es com

 parar símbolos, borrar símbolos, copiar símbolos, etc. ¿Cómo es po

sible que semejante mecanismo comprenda algo? Es fácil ver cómo

un manipulador de símbolos podría tomar la oración árabe

 Jamal hamati indaha waja midah

y realizar la manipulación de, por ejemplo, escribirla hacia atrás, o

añadir un prefijo que convierta la oración en interrogativa. Pero,¿cómo puede un simple manipulador de símbolos entender la ora

ción? La respuesta de Searle es que no puede.

Searle emplea algunos términos técnicos para expresar su. opinión

fundamental: un manipulador de símbolos solamente domina la  sin-

taxis, y el dominio de la sintaxis es insuficiente para el dominio de la

 semántica K Tener un dominio de la sintaxis es tener un dpminio de

un conjunto de reglas para reálizar manipulaciones de símbolos, y te

ner un dominio de la semántica es tener una comprensión de lo quesignifican los símbolos. Se tiene una buena ilustración de la tesis de

Searle en el hecho de que alguien puede aprender a manipular las ora

ciones de un lenguaje extranjero, de acuerdo con un conjunto de re

glas de sintaxis, sin con ello ganar ninguna comprensión de lo que

significan las oraciones. El conocimiento de la sintaxis no nos lleva,

 por sí solo, a conocer la semántica. He aquí, por ejemplo, dos reglas

sintácticas para el árabe:

1. Para formar una oración-I correspondiente a una oración

dada, prefíjense los símbolos «Hal» al conjunto de la oración.1

1 Searle, J.,  Minds,  Brains and Science, p. 31; «Minds, Brains and Programs»,

 p. 423; «Is the Brain's Mind a Com puter Program», p. 21.

Page 186: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 186/416

Inteligencia artificial. Una introducción filosófica190

2. Para formar una oración-N correspondiente a cualquier oración reduplicativa, insértese la partícula «laysa» frente al predicado de la oración.

Una comprobación. Escribamos la oración-I y la oración-N correspondientes a la oración

 Jamal hamati indaha waja midah

Tenemos que saber que esta oración es reduplicativa y su predicado es todo lo que va después de «hamati».

Muy bien. Me apuesto la pecera a que su nueva habilidad con estas dos reglas sintácticas no les ha dado a ustedes un atisbo de lo quesignifica «hal» y «laysa». En este caso es perfectamente obvio que dominar las reglas sintácticas no basta para dominar la semántica. «Hal»forma la interrogativa y «laysa» la negación. La primera oración pregunta si la suegra de tu camello tiene dolor de barriga y la segundaresponde de forma negativa.

Los computadores son dominadores y esclavos de las reglas sintácticas. Como vimos en el capítulo 4, sus programas no son más queinstrucciones para realizar largas series de maniobras sintácticas.¿Pueden liberarse de la prisión de la manipulación de símbolos y saliral mundo del significado? He aquí el argumento de Searle, según elcual no pueden.

6.1. El argumento de la habitación china

Searle usa a Sam, el programa que «entiende» narraciones, parailustrar su argumento2. Si a Sam le proporcionamos una narración seguida de preguntas acerca de la narración, Sam devolverá sus respuestas por escrito (se dan ejemplos de la actuación de Sam en el capítulo 2). Si miráramos este programa escrito en código de máquina,veríamos una confusión inescrutable de ceros y unos. Sin embargo,

cada línea del programa se puede interpretar cono una regla que cualquiera puede seguir. Por ejemplo, la línea

00000011  0111  1100

2 «Minds, Brains and Programs», p. 417.

Page 187: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 187/416

El curioso caso de la habitación china 191

se puede interpretar como la regla

Compara el contenido de la dirección de memoria número 7 con

el contenido de la dirección de memoria número 12 y escribe un 1si son iguales y un 0 si son diferentes.

(0111 es el código binario de 7, 1100 es el código binario de 12, y00000011 es la manera de decirle al computador que compare. Si estole produce perplejidad, eche un vistazo al capítulo 4.)

Supongamos que se reescribe de esta manera el programa Sam. Elresultado sería un libro de reglas de muchos volúmenes. Si tenemos

 poco más o menos un año libre, podemos seguir el libro de reglas de principio a fin, ejecutando a mano el programa, esto es, haciendo amano todas las manipulaciones de símbolos que realiza el computador cuando ejecuta el programa. Olvidemos que ejecutar el pro-grama a mano llevaría mes tras mes de insoportable aburrimiento eimaginemos que alguien lo consigue. Este héroe, José Culebrón, estáencerrado en una habitación con su biblioteca de libros de reglas, unaenorme pila de cuadernos en blanco y varios miles de lápices. Su

único contacto con el mundo exterior tiene lugar a través de dos rendijas en la pared, etiquetadas Entrada y Salida. Los experimentadoresmeten una narración mecanografiada seguida de una hoja de preguntas y luego se reúnen^impacientes al lado de la rendija Salida a esperarlos resultados (imaginemos que José produce las respuestas en minutos en vez de en meses). Para que José no pueda hacer trampas y limitarse a confeccionar sus propias respuestas, la narración y las pregun

tas están en chino (la versión de Sam que tiene José está adaptada alchino). En realidad, José ni siquiera se da cuenta de que la entrada yla salida son oraciones de una lengua. Por lo que a él se refiere, la entrada que recibe y la salida que produce son patrones sin sentido.

La primera tarea de José es consultar la sección del libro de reglasque empareja patrones de entrada con cadenas de ceros y unos (cadenas que, por lo que se refiere a José, son tan carentes de significadocomo los mismos patrones de entrada).

Una de tales reglas podría ser:

Si el patrón es 5R , escribe 100001110010001001001 en la siguientelínea vacía del cuaderno etiquetado «Almacén de entrada».

(3? significa «té», y la cadena de bits mostrada es la representación de este carácter chino en ASCII Pinyin).

Page 188: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 188/416

192 Inteligencia artificial. Una introducción filosófica

Una vez ha transformado todas las entradas en cadenas de bits,José realiza las miles y miles de manipulaciones que exige el pro-grama, llena cuaderno tras cuaderno de ceros y unos. Con el tiempo,

llega a la última sección del libro de reglas, que empareja caractereschinos con las cadenas que ha escrito en un cuaderno especial lla-mado «Almacén de salida». José copia los caracteres en hojas de papelque saca por la rendija Salida. Para los experimentadores que estánesperando, los patrones que dibuja José son respuestas inteligentes asus preguntas, pero para José son garabatos, costosos de obtener,

 pero perfectamente absurdos.¿Qué muestra, según Searle, esta puesta en escena? Hemos de ad-

mitir que José Culebrón no entiende la historieta, ni las preguntas, nilas respuestas. En realidad, ni siquiera sabe que son una narración y

 preguntas y respuestas. Para él, la entrada y la salida son símbolos ca-rentes de significado. Y, sin embargo, al ejecutar Sam a mano, José hahecho todas las manipulaciones de símbolos que un computador ha-

 bría realizado. En efecto, los experimentadores han ejecutado Sam enun computador humano. Así, pues, dado que ejecutar el programa no

le permite a Sam comprender la narración, se sigue que ejecutar el programa no le perm ite al computador comprender la narración, pues José hace todo lo que hace el computador y, con todo, no en-tiende la historia después de haber terminado. Además, esta conclu-sión se puede generalizar a todos los programas de IA que jamáshaya, pues el argumento no menciona ningún rasgo específico del

 programa3. Ejecutar un programa, no importa cuán bueno sea éste,nunca puede ser suficiente para que un computador comprenda nada,

crea nada, desee nada, piense nada. Tomemos un hipotético pro-grama de IA todo lo bueno que queramos, por ejemplo, un programacapaz de pasar la prueba de Turing. Cuando José Culebrón (o unacontrapartida cualquiera que no conozca el idioma en que se pasa la

3 Algunos autores piensan que la puesta en escena de Searle entraña un programaque consta sólo de una tabla gigantesca que empareja caracteres chinos con caracteres

chinos, la técnica de Parry y Superparry. (Por ejemplo, Kim Sterelny, The Representa-tional Theory o f Mind , p. 220 y ss.) Esta interpretación es injusta. Searle aclara que losdetalles del programa no afectan al argumento (véase «Minds, Brains and Programs», p. 417). En efecto, el programa Sam que emplea Searle para ilustrar su argumento notiene una arquitectura de tabla. Esta mala interpretación hace parecer más débil de íóque es el argumento de la habitación china, y lo expone a la errónea objeción de que, puesto que nadie cree que el programa Superparry entiende el chino, «Searle no nosdice sino lo que ya sabemos» (Sterelny, p. 222).

Page 189: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 189/416

El curioso caso de la habitación china   193

 prueba) ejecuta a mano el programa, no entiende ni las preguntas delinterrogador ni sus propias respuestas. Así, un computador que ejecute el programa estará exactamente en la misma situación. Un obser

vador podría tomar los símbolos de la salida del computador por oraciones significativas, pero para el computador los símbolos no

 pueden significar nada en absoluto.En general, pues, el argumento de la habitación china muestra (se

gún Searle) que la mera manipulación de símbolos no permite al dis positivo manipulador comprender X, creer Y, pensar Z, como lomuestra el hecho de que un manipulador humano podría realizarexactamente la mismas manipulaciones sin con ello llegar a entenderX, creer Y o pensar Z. Por tanto, si el argumento de la habitaciónchina es correcto, la hipótesis del sistema de símbolos es falsa.

El argumento de la habitación china ha causado un gran revuelo yse han exaltado a veces los sentimientos. El argumento ha irritadoenormemente a los investigadores de la IA, a quienes parece un juegode manos. Muchos se inclinan a rechazarlo como «sólo una malditaestupidez». Por el contrario, muchas personas de fuera de la IA en

cuentran persuasivo el argumento de la habitación china, y en algunasrevistas filosóficas ha sido calificado de «conclusivo», «exactamentecorrecto», «poderoso y convincente» y «completamente victorioso».Por esta razón, creo que deben tomarlo muy en serio quienes no loaceptan. Quien lo encuentre increíble no puede conformarse con esquivarlo. El argumento de la habitación china requiere una refutacióncuidadosa y probatoria. Esto es lo que voy a intentar.

6.2. ¿Qué error contiene el argumento?

En mi versión del cuento de la habitación china, como en el original de Searle, hay un participante que recibe mucha menos atenciónde la que merece, tan poca que puede que no hayamos advertido su

 presencia. Es el momento de repasar las cuentas. Permítanme presentarles a la Srta. Wong Soo Ling, que nos habla —o, mejor, nos es-cribe— en perfecto chino mandarín. Soo Ling es la voz del programa.Es la primicia de los afanes de José, una personalidad sin cuerpo traídaal mundo por la paciente manipulación de símbolos de José (para hacer más interesante la personalidad de Soo Ling, supongamos que el programa que José está ejecutando a mano es capaz de pasar la prueba de Turing, en chino, desde luego). Cuando se cuenta bien el

Page 190: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 190/416

194 Inteligencia artificial. Una introducción filosófica

cuento de la habitación china, tiene dos personajes principales, JoséCulebrón, el incansable pero algo aburrido trabajador, y la Srta.Wong, una hablante artificial de chino pero encantadora y refinada,

capaz de sostener una animada conversación sobre temas que vanmucho más allá de los límites del ingenio dejóse.

El punto álgido del cuento de Searle viene cuando a José se le pre-gunta si las manipulaciones de símbolos que está realizando le permi-ten entender las preguntas de entrada, y él (por supuesto) dice no. Sesupone que de aquí hemos de concluir que estas manipulaciones desímbolos no bastan para producir la comprensión. Pero, ¿por qué

 preguntarle a José? Al fin y al cabo no es más que un engranaje de la

máquina. Si preguntáramos a Soo Ling, sin duda respondería (co-rrecta o incorrectamente) que las manipulaciones simbólicas que estárealizando José le permiten entender las preguntas.

Una vez establecido que hay dos papeles en la escena de la habita-ción china, el de José y el del sistema del que forma parte, estoy en

 posición de señalar un defecto lógico del argumento de la habitaciónchina. He aquí el argumento en su esencia escueta y ordenada.

 Premisa  Ningún volumen de manipulaciones de símbolos de parte de José permitirán a éste entender las entradas enchino.

 Luego  Ningún volumen de manipulaciones de símbolos de parte de José permitirán a un sistema más amplio, delque José es un componente, entender las entradas enchino.

Este argumento no es válido. La conclusión, sencillamente, no se si-gue de la premisa. Aunque es imposible disputar la verdad de la pre-misa, ésta no presta ningún apoyo a la conclusión. El argumento de Se-arle no es mejor que esta parodia, que tiene la misma forma lógica:

 Premisa  Guillermo, el limpiador, nunca ha vendido pijamas aCorea.

 Luego  La compañía para la que trabaja Guillermo nunca havendido pijamas a Corea.

La organización de la cual Guillermo es un pequeño componente puede o no participar en el comercio de pijamas con Corea, pero la premisa no da ninguna indicación en ningún sentido.

Page 191: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 191/416

El curioso caso de la habitación china   195

Searle conoce bien las respuestas de esta naturaleza a su argumento. Éste ha recibido ataques similares de otros autores, y Searleha bautizado las respuestas de este género objeción de los sistemas.

Cree haber mostrado que la objeción de los sistemas está por enteroequivocada4. Voy a tomar una por una las contestaciones de Searle ala objeción de los sistemas e intentaré mostrar que ninguna funciona.Para dar colorido a este combate de boxeo entre Searle y yo, lo presentaré en forma dialogada (las palabras que atribuyo a Searle son paráfrasis, no citas exactas).

 Primer asalto

SEARLE Su objeción a mi argumento es embarazosamente estúpida5.Usted está de acuerdo en que el hombre de la habitación no entiendeel chino, pero dice que el sistema, más amplio, de que forma parte elhombre, puede, sin embargo, entender el chino. Veamos en qué consiste este «sistema más amplio» en el caso presente. Es un hombre

 junto con unos libros de reglas, un montón de cuadernos, un manojode lápices y puede que también las rendijas de entrada y salida. ¿Deverdad me está queriendo decir que aunque el hombre no entiende elchino, el sistema más amplio de hombre-más-papel-más-lápices loentiende?

COPELAND Reconozco que suena estúpido decir que un hombre-más-libro-de-reglas entiende el chino, aunque sea simultáneamente

verdad que el hombre solo no entiende el chino. Pero eso no mecausa apuro. Lo importante es ver por qué parece estúpido; Creo quehay dos razones. Primero, el hecho de que la habitación china contenga un ser humano tiende a producir1algo semejante a mirar por unembudo en quienes escuchan el cuento de Searle. Hay que esforzarse

 por no considerar al hombre de la habitación como el único centro posible de comprensión del chino. Este falso atractivo de la conclusión de Searle se desvanece si cambiamos un poco los detalles de lahistorieta. En vez de imaginar a un hombre que escribe ceros y unos,imaginemos una pulga magníficamente entrenada que da pequeñossaltos hacia arriba (0) y hacia abajo (1). ¿Nos tienta ahora la idea de

4  Searle, J., «Minds, Brains and Programs», pp. 419-20.5  Searle, J., ibidem, p. 419.

Page 192: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 192/416

196 Inteligencia artificial. Una introducción filosófica

que, puesto que la pulga no entiende el chino, no hay posibilidad de

que entienda el chino el sistema o máquina del que la pulga es un

componente?

La segunda razón por la que suena estúpido decir que el sistema puede entender el chino aunque el hombre no pueda, es simple: el

sistema más amplio que ha descrito Searle es profundamente estú-

 pido. Ningún hombre podría ejecutar a mano un programa capaz de

 pasar la prueba de Turing china. Podría estar pintando ceros y unos

durante diez años sin haber producido su primera oración en chino.

Es irrisoria la idea de que José produzca una conversación en chino

siguiendo un libro de reglas. Suena absurdo decir que un sistema

compuesto por José y el libro de reglas puede entender el chino, pero

no porque la objeción de los sistemas tenga fallos, sino porque el ab-

surdo está incorporado en la escena de Searle.

Segundo asalto

SEARLE Su réplica al argumento de la habitación china es una peti-ción de principio6. Esto es, supone gratuitamente la verdad de aque-

llo cuya falsedad estoy precisamente intentando demostrar. Mi ar-

gumento de la habitación china está pensado para demostrar que

ejecutar un programa de computador no basta para producir com-

 prensión del chino. Usted intenta responder a mi argumento di-

ciendo que, aunque el hombre no entiende el chino, el sistema más

amplio del que forma parte entiende el chino. Pero precisamente lo

que se está discutiendo es si ejecutar un programa basta para que algoentienda el chino. La objeción de los sistemas es una petición de prin-

cipio, porque insiste sin más argumento en que el sistema entiende

el chino.

COPELAND Esta objeción malinterpreta mi respuesta al argumento

de la habitación china. Algunos, desde luego, han intentado rechazar

el argumento de Searle diciendo que, aunque el hombre no enten-diera el chino, el sistema global lo entendería7. Searle tiene razón en

señalar que esta tosca réplica a su argumento es una petición de prin-

cipio. Sin embargo, mi respuesta es diferente. Sólo estoy llamando la

6  Searle, J., «Minds, Brains and Programs», p. 419.

7  Por ejemplo, Ned Block, «The Com puter Model of the Mind», p. 282 y ss.

Page 193: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 193/416

El curioso caso de la habitación china 197

atención sobre el hecho de que el argumento de la habitación chinano es válido* en el sentido de que la conclusión no se sigue lógica-mente de la premisa. No se puede inferir válidamente que el sistema

de que José es componente no entiende el chino a partir de la premisade que José no entiende el chino. No hay conexión lógica entre la

 premisa y la conclusión (como en el caso de Guillermo el limpiador yla empresa en la que trabaja). Indicar que el argumento de Searle noes válido lógicamente no entraña que yo afirme que el sistema com-

 prende: sólo digo que no se puede inferir válidamente que no com- prende a partir de la premisa de Searle. Así, pues, no he cometido una petición de principio.

Se puede ilustrar con un caso paralelo. Supongamos que alguienargumenta: «Juana come alimentos vegetarianos; luego se opone amatar animales.» Este argumento no es válido: la conclusión, eviden-temente, no se sigue de la premisa (el cardiólogo puede haber puestoa Juana a dieta vegetal). Puedo indicar que el argumento no es válidosin opinar sobre si Juana se opone o no a matar animales. Para pensar

que un argumento no es válido no hace falta pensar que su conclu-sión es falsa. Un argumento inválido puede tener una conclusión ver-dadera. Aunque yo supiera que Juana se opone firmemente a quitarvidas animales, insistiría, como es lógico, en señalar al argumentadorque su conclusión no se sigue lógicamente de su premisa.

Esto se puede expresar con más sencillez si volvemos a la versiónde la escena de la habitación china en que interviene el programaSam. Searle argumenta que José no entiende la historia y^ por tanto,

tampoco la entiende Sam. Con suerte, ahora estará usted de acuerdoconmigo en que no es un argumento válido. Para saber si Sam com-

 prende, tenemos que fijarnos en Sam, no en José. En realidad, no mehizo falta fijarme mucho en Sam para darme cuenta de que definitiva-mente no entiende la narración8. Sam literalmente no sabe de qué leestán hablando. Cuando escribe «John pidió lasaña» no tiene una no-ción de a qué se refieren estás palabras. Sam, como Eliza, puede ma-nipular las palabras de forma que produce la ilusión de que com-

 prende, pero no tiene ni idea de qué significan las palabras. Inclusolos creadores de Sam están de acuerdo. Roger Schank escribe: «No se

8 Véase Schank, R. C., y Abelson, R., Scripts, Plans, Goals and Understandings ca-

 pítulos 7 y 8.

Page 194: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 194/416

 puede decir de ninguno de los programas que hemos escrito que ver-daderamente entienda»9.

Así, la versión del argumento de la habitación china con Sam

tiene una conclusión que sabemos verdadera. Pero eso no significaque el argumento sea bueno. Si Searle dijera «La luna está hecha dequeso verde, luego Sam no entiende la historieta», también habríalanzado un argumento con una conclusión verdadera, y en ningunode los casos la conclusión se seguiría de la premisa.

Searle acusa a la objeción del sistema de «ser una petición de prin-cipio, porque insiste sin argumentos en que el sistema debe compren-der» I0. Sin embargo, en el caso de Sam, sabemos que el sistema nocomprende y yo sigo insistiendo en que no es válido lógicamente in-ferir de ese hecho que José no comprende. Esto debería poner enclaro que no hay ninguna petición de principio.

198 inteligencia artificial Una introducción filosófica

Tercer asalto

SEARLE Puedo mostrar lo que tiene de erróneo su réplica cam- biando algunos detalles de la historia de la habitación china. Dice us-ted que el hombre es parte de un sistema más amplio que puede en-tender el chino incluso aunque él no lo entienda. Puedo bloquear esaestrategia reformulando la historia de forma que no haya «sistemamás amplio» n. En vez de imaginar a un hombre que trabaja en unahabitación llena de libros de reglas, cuadernos y lápices, imaginemosque ha aprendido de memoria todas las reglas y realiza todas las ma-

nipulaciones simbólicas de cabeza. (Concedo que probablemente esimposible hacerlo, pero no importa. Desde el principio estábamos deacuerdo en que el experimento de la habitación china era imposibleen la práctica: es sólo un «experimento mental».) De esta manera, elhombre incorpora el sistema completo en vez de ser sólo una parte.Cuando los experimentadores le hacen preguntas en chino, procede arealizar todas las manipulaciones simbólicas en su cabeza y acaba porescribir contestaciones en chino. Sin embargo, no entiende más chinoque cuando estaba dentro de la habitación china. Esto es evidente,

 porque el tinglado es esencialmente el mismo que entonces. La única

9  Schank, R. G., «Understanding Searle», p. 446. Schank añade «todavía».10  Searle, J., «Minds, Brains and Programs», p. 419.u Searle, J., ibidem ,, p. 419, y «Is the Brain's Mind a Com puter Program?», p. 24.

Page 195: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 195/416

El curioso caso de la habitación china 199

diferencia es que lo que usted llamaba el sistema ahora es parte delhombre, y no éste parte de aquél Por tanto, adiós a la objeción de lossistemas: si el hombre no entiende el chino, entonces no hay medio

de que el sistema entienda, porque el sistema es parte de é l

COPELAND Esta o b j e c ió n d e p e n d e d e l siguiente principio:

Si José no puede hacer X, entonces ninguna parte de José puedehacer X.

Searle se apoya en este principio cuando del hecho de que José noentiende el chino pasa a la conclusión de que el sistema, que ahora esuna parte de José, no puede entender tampoco el chino. Llamémoslo«principio Parte-De». El problema de esta réplica de Searle es que nohay ninguna razón para pensar que el principio es verdadero (Searlemismo no hace ninguna mención de por qué lo cree).

Para mostrar cuán dudoso es este principio describiré un contra-ejemplo de ciencia-ficción. Usted ha sido víctima de un secuestro de

un grupo de investigadores fanáticos de la IA. Este grupo cree que lamejor manera de alcanzar el fin último de la IA, esto es, la superinte-ligencia humana, es ejecutar un «programa neurónico» en tejido cere bral humano. El proyecto no ha encontrado soporte oficial y han recurrido a métodos» clandestinos, con el resultado de que usted estáahora en una camilla quirúrgica con amarras en un sótano debajo dellaboratorio de IA. Contempla con aprensión la telaraña de cables queconectan su afeitado cráneo con un teclado y un monitor.u

Sin extirpar ni dañar nada de su cerebro, el equipo ha impreso el«programa neurónico» en una pequeña área de su corteza cerebral(gracias a la enorme redundancia de la corteza, se las han arreglado

 para no afectar a sus facultades). El programa de prueba que elequipo ha diseñado para el experimento es uno diseñado para calcular soluciones a ecuaciones tensionales n-dimensionales de simetríaoblicua. Funciona muy bien, y usted contempla sin comprender laentrada y la salida que aparecen en el monitor. He aquí, pues, uncontraejemplo al principio de Searle de que si usted no puede hacer X, entonces ninguna parte de usted puede hacerlo. Usted no puede calcular soluciones a ecuaciones tensoriales n-dimensionales desimetría oblicua, pero una parte de usted sí puede. La parte de su cerebro ocupada para realizar los cálculos de otras personas continúasiendo una parte de usted.

Page 196: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 196/416

200 Inteligencia artificial. Una introducción filosófica

¿Podría Searle limitarse a defender el fortín diciendo que, puesto queuna parte de usted puede resolver ecuaciones tensoriales, se sigue que us

ted puede resolverlas, que el equipo de IA le ha instilado una nueva habi

lidad? Supongamos que Searle intenta decir esto y veamos a qué llevaríaeso. Usted, desde la camilla, afirma que no sabe cálculo tensorial, y ni si

quiera sabe qué es eso. Supongamos que Searle dice que usted se equi

voca: usted ya no es árbitro último de lo que no puede hacer, y la manera

de determinar sus habilidades es estudiar las entradas y salidas de cuales

quiera «programas» que le implante el equipo. Bien, eso debe valer tam

 bién para José cuando ejecuta el programa memorizado. José afirma que

no entiende el chino, pero José ya no es el árbitro último de eso: tenemos

que considerar las entradas y salidas del sistema que José ha «internali

zado». Pero eso, desde luego, es precisamente lo que Searle no puede de

cir. Una piedra angular del argumento de Searle es cuando José dice:

«No entiendo estos símbolos»; eso es prueba de que un programa de

computador es insuficiente para dar a José la capacidad de entender el

chino. Sin esta piedra angular, Searle no podría construir su argumento.Así, pues, Searle está entre los cuernos de un dilema. Si dice que

usted sabe resolver ecuaciones tensoriales, cae en graves problemas.Si, por el contrario, dice que usted no sabe, contradice el principio

Parte-De, puesto que hay una parte de usted que evidentemente sabe

resolver ecuaciones tensoriales.

Cuarto asalto

SEARLE La objeción de los sistemas elude mi posición central: que eldominio de la sintaxis es insuficiente para el dominio de la semántica.

Por más que barajemos símbolos, jamás conseguiremos entender lo

que significan esos símbolos. Un programa de computador es preci

samente un conjunto de instrucciones para barajar símbolos. Por

tanto, ejecutar un programa de computador no basta para producir

comprensión del chino ni de nada. Volviendo a la objeción de los sis

temas, dice usted que, aunque las manipulaciones simbólicas que rea

liza el hombre no le permiten entender el chino, pueden, no obstante,

 permitir al sistema entender el chino. Pero, como acabo de explicar,

seguir los pasos de un programa no basta para hacer que nada entienda el chino, hombre, sistema o lo que usted quiera12.

12 Searle, J., Minds, Brains and Science, pp. 34-5.

Page 197: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 197/416

El curioso caso de la habitación china 201

COPELAND ¡Vamos, Searle no puede hacer eso! Se supone que el ar-gumento de la habitación china demuestra  la tesis de Searle de que lamera manipulación de símbolos no puede producir comprensión, y

ahora Searle intenta usar esa tesis para defender   el argumento de lahabitación china contra la objeción de los sistemas. Eso es como si le piden otros diez dólares para poder pagarle los diez dólares que pre-viamente le deben. Esta cuarta respuesta a la objeción de los sistemases un simple juego de manos.

Es cierto que no he abordado la tesis de Searle de que la manipu-lación de símbolos no basta para producir comprensión. Esto ha

sido, sin embargo, porque me he ocupado de su argumento en favorde su tesis, y no de la tesis misma. Después de haber mostrado, es-

 pero, que el argumento de la habitación china no vale, es hora de mi-rar de frente la tesis que se supone que prueba. (Al fin y al cabo, de-rribar un argumento de una tesis no basta para establecer que la tesises falsa. Si Dios existe, existe, aunque se haya demostrado que sondefectuosos incontables intentos de demostrar su existencia.)

6.3. Decidir qué es entender 

Cuando Sam mecanografía: «Mi plato favorito es la lasaña» nosabe, literalmente, de qué habla. ¿Cómo podría? No ha visto ni ha

 probado la lasaña. Sam lleva una vida muy escondida, privado detoda sensación y placer corporal, y comunicando por teletipo sus

mensajes aburridos y adocenados. Sam es un sujeto perfecto, al que li- berar. Pasemos a Turbo Sam, un llamativo robot humanoide cubiertode suave plástico rosa repleto de sensores táctiles sensibles a la pre-sión. Turbo Sam tiene brazos, piernas, cámaras de la televisión embe-llecidas por ojos, oídos electrónicos, una buena voz y cualesquieraelementos y aparatos artificiales que queramos imaginar. Aunque al

 principio está tan inerme como un niño humano, Turbo Sam aprendecon rapidez cosas sobre el mundo. Su equipo de diseño le enseña pa-

labras de manera parecida a como se les enseña a los niños en casa(«Mira, Turbo Sam, esto se llama spaghetti. Es comida.» «Estupendo,

 pero, ¿cómo se come?»). Al final de su entrenamiento, Turbo Sam, eltriunfo de la ingeniería de la IA, habla como nosotros, interaccionacon el mundo con tanta destreza como nosotros e incluso escribe poe-sía. Pero,  ¿entiende  Turbo Sam su poesía? Porque, en el fondo,

Page 198: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 198/416

20 2 Inteligencia artificial Una introducción filosófica

Turbo Sam no es más que un manipulador de símbolos. Sus periféri

cos pueden ser fantásticos comparados con los simples teclado y pan-.

talla de Sam, pero bajo todo ese bullicio no es más que un compu

tador que manipula cadenas de ceros y unos.Searle, como es de esperar, dice que un robot controlado por un

 programa no comprende nada, por muy buena que sea su poesía. Sos

tiene que puede demostrarlo mediante una nueva versión del argu

mento de la habitación china13. Supongamos que una persona china

ejecuta a mano el programa que controla Turbo Sam. Los símbolos

con que comienza la persona no son esta vez caracteres chinos, sino los

símbolos que los periféricos del robot suministran al programa. Serán

 bloques de ceros y unos. Esto puede parecer desconcertante, así que

me explicaré. Tomemos el aparato visual del robot. Las fotografías de

los periódicos, como es sabido, están hechas de pequeños puntos congrados diferentes de gris. Imaginemos una fotografía compuesta de

 puntos de sólo dos tonos de gris, claro y oscuro. Ahora sustituyamos

cada punto claro por un cero y cada punto oscumpor un uno: el resul

tado es una imagen compuesta por unos y ceros. En realidad, ésta es

una forma bastante grosera de usar bits para representar una escena visual, y se consigue mejor detalle con métodos más refinados. Sin em

 bargo, este sencillo método ilustra que la salida de los «ojos» del robot

 puede constar de ceros y unos. Los símbolos que la persona envía a los

divei'sos aparatos motores del robot —quizá por medio de una cone

xión de radio— también serán cadenas de ceros y unos, que serán con

vertidas en habla, movimientos de la mano, etc. Ahora vamos con el

argumento de Searle. Alguien coge un plato y dice: «Oye, Turbo Sam,

esto se llama lasaña». «Entiendo», responde Turbo Sam. Las manipulaciones de símbolos que producen esta respuesta las ha realizado a

mano la persona china, y con ello no mejora su comprensión del signi

ficado de «lasaña». Por lo que a ella se refiere, está manipulando cade

nas incomprensibles de ceros y unos. Ni siquiera sabe que los símbolos

con los que comienza proceden de la dotación sensorial y motora de

un robot. Por tanto, dice Searle, puesto que ejecutar un programa no

 permite a la persona china comprender, el programa no es capaz de

 producir comprensión, aunque" pueda parecer lo contrario. Túrbo Sam

 podría decir  «comprendo», pero no lo hace.

Esta respuesta de Searle es más de lo mismo. Podemos pasarla por

alto, pues ya sabemos que el argumento de la habitación china no es

13 Searle, J., «Minds, Brains and Programs», pp. 420 y 421.

Page 199: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 199/416

El curioso caso de la habitación china 203

válido. Searle no puede inferir válidamente que Turbo Sam no entiende a partir del hecho de que la persona china que ejecuta el programa no entiende.

Es hóYa de afrontar directamente la cuestión de si Turbo Sam entiende o no. Esta pregunta es muy semejante a la de si un artefacto

 puede pensar, y lo que voy a decir sobre ella es paralelo a lo que dijeacerca de esta última en el capítulo 3. La única manera de responderambas preguntas es decidir: decidir si se pueden o no extender a unartefacto términos y categorías que ordinariamente sólo aplicamos aotras personas y a nuestros parientes biológicos.

¿Piensa Turbo Sam? Decir que sí no es decir que hay un procesoespecial llamado pensamiento, añadido a sus otros procesos internos,y que tiene lugar junto a ellos, y lo mismo ocurre con entender.Como he argumentado en el capítulo 3, empleamos la dicotomía pen-sante/no pensante para distinguir, por un lado, aquellas entidadescuya riqueza de procesos internos Orientadores de la acción las haceagentes inventivos, crecientemente adaptables, caprichosos, y, porotro lado, aquellas entidades como las larvas y los juguetes automáti

cos cuyos procesos internos orientadores de la acción sólo son ca paces de producir conductas de un género rígido y limitado (sección 3.6). En mi opinión, es todo lo obvio que algo puede serlo enfilosofía que si nos encontráramos un robot como Turbo Sam, tendríamos que decir que piensa. Dado el propósito para el cual empleamos el concepto de cosa pensante, la decisión contraria sería imposi ble de justificar. Y si decidimos afirmar que Turbo Sam piensa, no puede tener objeto rehusar decir que entiende el lenguaje que habla.

Pues, en el escenario imaginado, Turbo Sam es tan hábil como un serhumano en el uso de las palabras para allanar y ornamentar su paso por el mundo.

Es importante darse cuenta de que la tesis de Searle no es que unmanipulador de símbolos no pueda comportarse como he retratado aSam, sino que, aunque lo hiciera, no pensaría ni comprendería14. Paramis entendederas, ésta es una idea pintoresca; es más, es una idea parala que Searle no ofrece ningún apoyo, aparte del desacreditado argumentó dé la habitación china. Me parece que d írn én tko essi se puede hacer que se comporte como Turbo Sam un ingenio quefuncione realizando operaciones tales como comparar, copiar y bo

14 Searle, J., «Minds, Brains and Programs», pp. 420 y 421.

Page 200: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 200/416

204 Inteligencia artificial. Una introducción filosófica

rrar símbolos. Pero ésta es una cuestión empírica. No se puede res ponder mediante un argumento filosófico a priori.

6.4. Las máquinas de Turing y la objeción biológica a la IA

Searle tiene otra carta en la manga. Si la hipótesis del sistema desímbolos es verdadera, dice, entonces un computador hecho de papelhigiénico puede pensar; por tanto, quien se incline a creer la hipótesisdel sistema de símbolos debe disponerse a aceptar que los rollos de

 papel higiénico son material capaz de pensar15. Según mi experiencia,la reacción inicial más común es asombrarse de la idea de que se

 pueda hacer un computador con papel higiénico. Sin embargo, lesaseguro que eso no es tan improbable como parece. Luego lo explicaré brevemente. Primero quiero desarrollar la tesis básica que subyace al nuevo ataque de Searle, a saber, que, puesto que sabemos quenuestros estados mentales (pensar, entender, etc.) son el resultado de

 poseer una disposición muy especial de sustancias bioquímicas muy

especiales en nuestros cráneos, podemos tener bastante seguridad enque el humilde rollo de papel higiénico no es el tipo de cosa capaz detener estados mentales.

Searle insiste en que el pensamiento, o mentalidad como a vecesdice, es un fenómeno biológico16. Nuestra capacidad de segregar bilisdepende de que poseemos un órgano con la constitución biológicaapropiada, el hígado. Igualmente nuestra capacidad de tener estadosmentales depende de que tengamos un órgano con una constitución

 biológica apropiada, el cerebro. La mentalidad, la lactancia, la digestión, la mitosis, la meiosis, la fotosíntesis, el crecimiento, la reproducción, todos ellos son procesos cuyo acontecer depende de la bioquímica de los organismos que los realizan. No cualquier cosa produceleche. La ubre de la vaca la da porque tiene la bioquímica adecuada

 para hacerlo. Igual la mentalidad, dice Searle: no cualquier cosa puedetener mentalidad. Los seres humanos la tienen sólo porque están hechos con el tipo adecuado de material. (Searle pone cuidado en señalar que no está afirmando que el tejido cerebral de los mamíferos seael único upo de sustancia capaz de sustentar la mentalidad. Es conce-

15 Searle, J., « Minds, Brains and Programs», p. 423.16 Searle, J., ibidem, p. 422, y Minds, Brains and Science, pp. 40-1.

Page 201: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 201/416

El curioso caso de la habitación china 205

 bible que haya seres extraterrestres que tengan mentalidad aunquesu.bioquímica sea muy distinta de la nuestra: lo que hacemos conmateria gris, ellos lo hacen con baba verde. El tejido cerebral de los

mamíferos puede o no ser la única clase de material capaz de sustentar la mentalidad, ésa es una cuestión estrictamente empírica segúnSearle1718.)

Esto parece razonable. Pero, ¿en qué sentido es una objeción ala IA? Searle dice que nadie tomaría en serio la idea de programar uncomputador para que produjera leche: sabemos que las pastillas de silicio no son el material adecuado. Y, sin embargo, continúa Searle,«cuando pasamos a hablar de la mente, muchas personas están dis

 puestas a creer en ese milagro»; la gente se toma muy en serio la ideade programar un computador para que tenga mentalidadí8. Estas observaciones dan fácilmente la impresión de que Searle dice que loscomputadores están hechos de un material inapropiado para pensar:el silicio y el plástico no son las sustancias adecuadas para sustentar lamentalidad. Zenon Pylyshyn hace burla de esta audaz y dogmáticaafirmación19. Nos invita a considerar un experimento en el cual se

sustituyen progresivamente las neuronas del cerebro de Searle por pastillas de silicio. Una neurona es un mecanismo biológico complejocuya función global parece ser aceptar como entradas corrientes eléctricas y emitir corrientes eléctricas como salidas. Cada neurona deSearle es reemplazada por una pastilla que mimetiza exactamente su

 patrón de entradas y salidas. Puesto que cada pastilla realiza exactamente la misma función que la neurona que sustituye, la «siliciza-ción» no afectaría al carácter de los mensajes eléctricos que él cerebro

de Searle envía a los músculos de su garganta, labios, manos, etc.Searle probablemente seguiría hablando y escribiendo como ahora,con la única diferencia de que ahora no se referiría a nada, puesto quesu cerebro estaría hecho de silicio, metal y plástico, y no tendríamentalidad.

. Searle replica con bastante sequedad que Pylyshyn le ha entendido mal20. Claro que no estoy afirmando dogmáticamente que el si

licio no pueda sustentar la mentalidad, dice Searle. Puede quesí y puede que no: eso es una cuestión empírica. ¿Quién sabe cuál

17 Searle, J., «Minds, Brains and Programs», p. 422.18 Searle, J., ibidem, p. 424.19 py]yS¿y n) Z. W., «The “Causal Power” of Machines», p. 442.

20 Searle, J., «Autor’s Response», p. 453.

Page 202: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 202/416

206 Inteligencia artificial. Una introducción filosófica

sería realmente el resultado del experimento de ciencia-ficción dePylyshyn? El cuento de Pylyshyn supone precisamente que el sistema propuesto de circuitos integrados duplicaría las propiedades

causales del cerebro. Pero puede que no, ¿quién lo sabe? No sabemosen el momento actual si un aparato construido con pastillas de silicio

 puede tener las mismas propiedades causales que el cerebro o, enotras palabras, tener las cualidades y la organización adecuadas parasustentar la mente (igual que no sabemos si una extraña pastaverde podría tener las mismas propiedades causales que el cerebrohumano). Sin embargo, continúa Searle, hay una cosa segura, inclusoen nuestro estado actual de ignorancia, y es que ningún aparato de silicio puede duplicar las propiedades causales del cerebro humanomediante la ejecución de un programa de computador. Porque esto,nos recuerda Searle, lo ha demostrado el argumento de la habitaciónchina.

De pronto la objeción biológica de Searle a la IA empieza a perder interés. La objeción biológica equivale a los tres extremos siguientes: 1) Un artefacto con mente tiene que constar de las sustan

cias adecuadas configuradas del modo adecuado para dotar al ingeniode las mismas propiedades causales que posee el órgano que hay dentro del cráneo humano. 2) Si esto se puede hacer con sustancias distintas de las que componen el cerebro humano, es una cuestión empírica. 3) No es posible mediante la programación dotar a un ingeniocon las mismas capacidades causales de un cerebro humano. Sin em

 bargo, nada de esto hará tambalearse a un entusiasta de la IA. Si nosfijamos en la proposición 1) veremos que es trivial. Se reduce a decir

que para poseer mente, un artefacto debe tener la constitución apro piada para sustentar la mente. La proposición 2) es verdadera, perono provocativa. ¿Quién negaría que es una cuestión empírica? Y la

 proposición 3) es sencillamente la conclusión del argumento de la ha bitación china, que no es válido.

Ahora vamos a lo que estábamos esperando. ¿Cómo es posibleconstruir un computador de papel higiénico? En 1936 Alan Turing demostró un teorema matemático fundamental para la teoría de la computación. Turing no formuló exactamente así su resultado matemático,

 pero éste es su significado básico: cualquier programa que se pueda ejecutar en un computador se puede también ejecutar en un rollo de papelhigiénico infinitamente largo (Turing hablaba discretamente de cintasde papel infinitamente largas). Recordemos que cuando ejecuta un programa, un computador se limita a manipular los símbolos 0 y 1: escri

Page 203: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 203/416

El curioso caso de la habitación china 207

 birlos en direcciones, borrar de direcciones, etc. Todo esto se puedeimitar por medio de un ingenio que conste de un rollo de papel higiénico de longitud ilimitada —cada hoja constituiría una «localización»

 para un símbolo individual— más una cabeza de lectura y escrituraante la cual se desplaza el papel hoja por hoja. La cabeza puede identificar cualquier símbolo que tenga ante sí, puede borrar y escribir sím bolos y puede mover el papel a izquierda o derecha. Las operacionesde la cabeza son controladas mediante un conjunto de instrucciones incorporadas. Podríamos figurarnos que habría que cambiar estas instrucciones cada vez que se exige al ingenio imitar un programa de compu

tador diferente, pero no hace falta. Una consecuencia de uno de lossorprendentes teoremas de Turing es que un conjunto fijo de instrucciones permitirá al ingenio imitar cualquier programa de computadorque deseemos (¡Bastan veintiocho instrucciones!)21. El truco está en escribir en la cinta misma instrucciones especiales que se combinan conlas instrucciones incorporadas a la cabeza y producen la conducta apetecida. Estos ingenios de cinta de papel se llaman máquinas de Turing. Una máquina de Turing con instrucciones que le permitan imitar cual

quier programa de ordenador se conoce como una máquina universalde Turing. Si la hipótesis del sistema de símbolos es verdadera, entonces, en principio, se puede programar para pensar una de estas máquinas terriblemente simples (los ejercicios del final de este capítulo danalgunos ejemplos de máquinas de Turing)22.

Desde luego, sólo en teoría  puede una máquina universal de Turing hacer todo lo que hacen los más potentes computadores moder-

21 Demostrado por Minsky en su Computation: Finite and Infinite Machines, sección 14.8.

22 Lo que Turing demostró es que existe (en el sentido matemático) una máquinade Turing capaz de computar todas las funciones efectivamente calculables, en un sentido de «efectivamente calculable» definido por Alonzo Church; véase Turing, A. M.,«On Computable Numbers, with an Application to the Entscheidungsproblem». (Elconcepto de calculabilidad efectiva es equivalente al concepto de calculabilídad algorítmica introducido y explicado en el capítulo 10.) Se ha demostrado después que hay

muchas máquinas de Turing diferentes (esto es, máquinas de Turing con tablas distintas) que pueden hacer esto. Son máquinas universales de Turing. Una máquina universal de Turing tiene una potencia de computación equivalente a la de cualquier sistemauniversal de símbolos con memoria ilimitada. La demostración de esto consiste esencialmente en escribir un programa para una máquina con las operaciones fundamentales recogidas en la sección 4.5, que permita simular uná máquina universal de Turing, yescribir un programa para una máquina universal de Turing que le permita simular unamáquina que use las operaciones mencionadas.

Page 204: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 204/416

208 Inteligencia artificial. Una introducción filosófica

nos. Por un lado, el papel (especialmente el papel higiénico) es dema-siado flojo para soportar muchos vaivenes delante de la cabeza de lamáquina. Además, no hay bastante material: se necesitarían enormes

cantidades de rollos para imitar un programa tan simple como  Eliza, E incluso si, per impossibile, alguien cometiera la locura de construiruna máquina de Turing de papel, el ritmo de trabajo sería tan lentoque moriría antes de que la máquina hubiera completado cualquier

 programa razonablemente complejo. En resumen, el ordenador de papel es una posibilidad teórica pero no auténtica.

Hemos visto en el capítulo 4 que un computador no tiene por quéconsistir en la herramienta electrónica ordinaria (sección 4.7). Ahoraresulta que es posible teóricamente construir un computador con pa-

 pel (junto con los componentes de la cabeza de lectura y escritura). No hay ningún límite teórico real a los componentes con los que se puede hacer: papel higiénico, piedras, latas de cerveza, palomas, tube-rías o molinos de viento, por citar la lista de Searle de posibilidades

 pintorescas. Si es verdadera la hipótesis del sistema de símbolos ycualquier computador puede pensar si está programado adecuada-

mente, es posible en teoría construir un órgano que piense con papelhigiénico o latas de cerveza o prácticamente de cualquier cosa. Laidea de que se puede fabricar un «cerebro» con sustancias tan impro-

 bables le parece a Searle cómica. Cuando pensamos en que nuestracapacidad de pensar está tan estrechamente ligada con nuestra histo-ria evolutiva de organismos biológicos, y depende tan decisivamentede la composición y organización precisas de las sustancias que tene-mos dentro del cráneo, la idea de que se pueda fabricar un cerebro ar-

tificial con esas porquerías parece ciertamente extraña.Sin embargo, aquí lo importante es darse cuenta de que la hipóte-

sis del sistema de símbolos no implica que realmente se pueda cons-truir un artefacto pensante con papel higiénico o latas de cerveza. Sear-le dice que encuentra la hipótesis «francamente, del todo idiota»23,

 pero no es en realidad tan idiota como hacen que parezcan estas alu-siones al papel higiénico y las latas de cerveza. En el país de las hadasse pueden hacer niños de azúcar y especias y golosinas, y los compu-tadores de papel higiénico, pero en el mundo real la estructura y las

 propiedades de la materia imponen serias restricciones a aquello de loque se pueden hacer los computadores o los niños. Sin duda hayotras formas posibles físicamente de realizar computadores distintas

23 Searle, J., Minds, Brains and Science, p. 38.

Page 205: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 205/416

El curioso caso de la habitación china 209

de las que mejor conocemos, los circuitos electrónicos (si quienes postulan que el cerebro humano mismo es un computador tienen ra-zón, entonces hay al menos dos formas radicalmente diferentes de rea-lizar computadores). Pero los diseños de papel higiénico y latas decerveza no son aspirantes. En el mundo real estas sustancias no sirven

 para esa tarea.Así, pues, hay un amplio grado de acuerdo entre Searle y los de-

fensores de la hipótesis del sistema de símbolos (aunque Searle, claro.está, no lo ve así). Ambos bandos creen que sólo una organizaciónexacta y delicada de sustancias adecuadas puede sustentar la mente.

Quizá la diferencia más interesante entre los dos bandos sea una que pone a Searle en inferioridad. Es que Searle no ofrece ninguna teoríasobre qué hace que una sustancia sea apropiada para contribuir a pro -ducir la mente, mientras que el bando contrario sí la ofrece. Su teoríaes que una sustancia es capaz de esta contribución si sus propiedadesfísicas le permiten prácticamente convertirse en un ingrediente cen-tral de la construcción de un sistema de símbolos universal.

Esta teoría no impresiona a Searle, pues cree que (en el sentido

ordinario de «computación») todo es un computador. Escribe:

El argumento de la habitación china mostraba que la semántica no es intrín-seca a la sintaxis... Peor aún, que la sintaxis no es intrínseca a la física. La ads-cripción de propiedades sintácticas es siempre relativa a un agente u obser-vador que trata ciertos fenómenos físicos como sintácticos... Los estadoscómputacionales no se descubren en la física, sino que se le asignan a la fí-sica... En la definición de manual de computación... para todo objeto hay al-

guna descripción bajo la cual el objeto es un computador digital24.

Searle ilustra el curso de su razonamiento con un ejemplo: «La pared que tengo a mi espalda ejecuta ahora mismo el programaWordstar, porque hay algún patrón de movimientos moleculares quees isomorfo con la estructura formal del Wordstar»25. Searle señalaregocijado que estas consideraciones hacen trivial la pregunta de si elcerebro humano es un computador: «si los cerebros son computado-

res digitales porque todo es un computador digital»26.Sin embargo, Searle se equivoca al creer que la «definición de ma-

nual de computación» implica que esta pared ejecuta el Wordstar.

24 Searle, J., «Is the Brain a Digital Computer?», pp. 26 y 27.25 Searle, J., ibidem, p. 27.26 Searle, J., ibídemt  p. 26.

Page 206: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 206/416

210 Inteligencia artificial. Una introducción filosófica

Concedamos a Searle que los movimientos de las moléculas de la pared se pueden describir de una manera que sean «isomorfos» con unasucesión de manipulaciones de bits llevadas a cabo por una máquina

que esté ejecutando el Wordstar (dos cosas, o estados, o procesos sonisomorfos si poseen la misma estructura. Si yo imito exactamente conmis manos los movimientos de las de usted, entonces los movimientos de las mismas son isomorfos con los suyos). Desde luego, el iso-morfismo podría persistir sólo por una fracción de segundo, a menosque hiciéramos trampas jugando con el esquema de la descripción27.La existencia del isomorfismo no basta para que sea verdad que la pared está soportando el Wordstar ni siquiera durante el breve periododurante el cual existe el isomorfismo. Consideremos un computadorque está verdaderamente ejecutando el Wordstar. Supongamos quedurante un intervalo particular de tiempo, £, el computador lleva acabo una sucesión de manipulaciones de bits mp m2, m3, ... en res

 puesta a una orden de hacer una clasificación alfabética. Imaginemosademás que, bajo el hipotético método de Searle para describir losmovimientos de las moléculas de su pared, es verdad que durante t  la

 pared también está llevando a cabo la sucesión de manipulaciones de bits m1?m2, m3, ... (esto es lo que Searle quiere decir cuando habla deque los movimientos moleculares son «isomorfos con la estructuraformal del Wordstar»). Para que la pared esté soportando el Wordstar hace falta mucho más. Pues si al ordenador se le hubiera mandado, en vez de clasificar, comprobar la ortografía o poner en cursiva

27 Se puede prolongar el isomorfismo cambiando continuamente las referencias de

los términos clave de la descripción («registro de la instrucción», «acumulador», etc.).Me refiero a permitir que un término se refiera primero a una cosa, luego a otra, des pués a la de más allá, (Análogamente, la referencia del término «primer ministro deGran Bretaña» puede cambiar como resultado de las elecciones generales.) La referencia del término «registro de la instrucción» ha de cambiar repetidamente conformeavanza el programa, de manera que en cada momento el término se refiera a una regiónde la pared cuyas moléculas, por casualidad, sean una codificación (según la manera dedescribir de Searle) del contenido, en ese momento, del registro auténtico de la instrucción (igual en el caso del acumulador y el resto de ios registros de la máquina), ver

mi «What is Computation?», donde se contiene un argumento según el cual es ilegítimo, en este contexto, hacer esa maniobra. Ahí defiendo que el análisis de la computación que hizo Turing en 1936 basta para contrarrestar el llamado problema de las «realizaciones triviales». (Una de las cuales es la pared del Wordstar), Argumento que el

 problema sólo surge si se pasan por alto las lecciones sobre modelos que nos enseña la paradoja de Skolem. Barrer este problema desmonta varias objeciones que se han hecho al funcionalismo psicológico y a la hipótesis de que el cerebro humano es un com

 putador.

Page 207: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 207/416

El curioso caso de la habitación china 211

un documento, o borrar la última página, entonces habría llevado acabo durante t  una sucesión completamente distinta de manipulacio-nes de bits. El enunciado «si en el momento t  a la máquina se le hu-

 biera ordenado ejecutar un control de la ortografía, habría realizadolas manipulaciones de bits np n2, n3, ...» se llama contrafáctico, unenunciado que nos dice, no lo que la máquina en realidad hizo en f,sino lo que habría hecho si la entrada hubiera sido diferente. Si la pa-red de Searle está soportando de verdad el Wordstar durante t, en-tonces serán verdaderos éste y otros contrafácticos semejantes; demodo que si éstos no son verdaderos, entonces no está soportando el

Wordstar. Como cualquier ingeniero de diseño físico atestiguará,formar con la materia bruta un aparato que tenga tal conjunto decontrafácticos verdaderos es materia bien delicada. La suposición deque un objeto que consta de unas vigas y un enfoscado de yeso ha detener los contrafácticos requeridos no es de este mundo.

Así, pues, Searle no ha dado ningún apoyo a su afirmación de quetodo objeto posee una descripción bajo la cual es un sistema de sím-

 bolos universal. Por el contrario, todo son razones para creer que la

clase de tales objetos es bastante restringida, y es una cuestión empí-rica que el cerebro sea un miembro de esa clase (este problema es elmeollo del capítulo 9).

 Ejercicios

Ejecute a mano estas sencillas máquinas de Turing y descubra qué

cambios realizan sobre sus cintas. Encontrará las respuestas en lanota28.

28 La Máquina Uno sustituye progresivamente los unos de su cinta por ceros, hastaque llega al cuadro que ya contiene un uno, y entonces se detiene.

0

F ig u r a  6.3

La Máquina Dos es un comprobador de paridad. Esto es, informa de si una secuen-cia entera de unos contiene un número par o impar de dígitos. Conforme la secuenciade unos pasa la cabeza, el indicador salta entre dos estados: impar, par, impar, par.

Page 208: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 208/416

212 Inteligencia artificial. Una introducción filosófica

 Máquina uno

Las instrucciones incorporadas en la cabeza de lectura y escritura

de una máquina de Turing* se representan habitualmente en forma detabla, conocida como tabla de máquina:

Símbolo   Escribir   Ir a

1   0 I

0   1 P

La primera línea de la tabla dice a la cabeza lo que ha de hacercuando escruta un cuadro que contiene el símbolo 1; a saber, escribirun 0 en el cuadro (y antes borrar el 1, desde luego) y luego mover lacinta un cuadro hacia la izquierda (con el resultado de que la cabezava al cuadro siguiente por la derecha). La segunda línea dice a la ca- beza lo que ha de hacer cuando escruta un 0; a saber, sustituir el 0 porun 1 y luego parar.

Antes de poner en marcha la máquina, la cinta está como se mues-

tra en la figura 6.1 (señala el cuadrado donde está la cabeza). ¿Qué as- pecto tendrá la cinta cuando se detenga la máquina?

F i g u r a  6.1

Cuando la cabeza encuentra ei 0 que señala el extremo derecho de la secuencia, lo sus-tituye por un 1 si hay un número impar de unos en la secuencia (esto es, si el indicadorestá en el estado 1), y no hace ningún cambio si hay una cantidad par (esto es, si el in-dicador está en el estado 2). Luego se sitúa en el uno final de la sucesión y se detiene.

F i g u r a  6.4

Page 209: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 209/416

El curioso caso de la habitación china 213

 Máquina dos

Esta máquina es más interesante. Tiene como rasgo adicional unindicador . En la tabla anterior ambas instrucciones tienen la forma «siel símbolo actual es ... hacer  ___ ». Se introduce el concepto de indica-dor para posibilitar formas más complicadas; por ejemplo, «si el sím-

 bolo actual es ... y el símbolo del cuadro inmediatamente precedenteera ___ hacer  ____ ». Una manera útil de concebir el indicador de unamáquina de Turing es como un puntero con varias posiciones. Un in-dicador de dos posiciones bastará para conservar la pista del último

símbolo binario encontrado: si era un 0, el indicador se coloca en su posición primera, y si era un 1, en su posición segunda. Según la tarease pueden usar más de dos estados. La máquina universal que descri-

 bió Turing tenía más de veinte estados.Una tabla de máquina de una máquina de Turing con un indicador

tiene cinco columnas. En la tabla próxima la primera línea dice a la ca- beza lo que debe hacer si encuentra un 1 cuando su indicador (de dosestados) está en el primer estado: no hacer ningún cambio en el sím-

 bolo (N), mover la cinta un cuadro hacia la izquierda y llevar el indica-dor a su segundo estado. La segunda línea le dice lo que ha de hacer siencuentra el símbolo 1 y el indicador está en el segundo estado. El«D,P» de la tercera y la cuarta líneas de la columna Ir a significa«mueve la cinta un cuadro a la derecha y luego para».

Símbolo Estado Escribir Ir a Siguiente estado

1 1N

I2

1 2 N I 10 1 1 D,P 10 2 N D,P 2

¿Puede averiguar para qué se ha programado esta máquina?Cuando la máquina empieza a operar el indicador está en el estado 1y la cinta como se muestra en la figura 6.2.

F ig u r a  6.2

Page 210: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 210/416

214 Inteligencia artificial Una introducción filosófica

Por último, un ejercicio para quienes tienen adicción al lenguajeensamblador. Pruebe a escribir un programa que simule la conductade la máquina dos (usando el lenguaje de programación definido en el

capítulo 4)29.

29 Ésta es una versión a escala reducida de lo que hay que hacer cuando se cons-truye la primera parte de la demostración aludida en la nota 22:

Page 211: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 211/416

Capítulo 7 

LIBERTAD

«Bueno, puede que sea posible construir un computador que piense en un sentido limitado», truena el escéptico del bar. «Pero unamáquina nunca será capaz de ♦♦♦♦». Aquí el o la hablante desvelasu ejemplo preferido de rasgo de mentalidad humana que —supues-tamente—•ninguna máquina puede reproducir. Alan Turing escribiómalhumorado sobre estas réplicas (a las que dio el título colectivo de«argumentos de las diversas incapacidades»). «Generalmente no seofrece nada en apoyo de estas manifestaciones», lamenta1. Recogenumerosos candidatos para ♦♦♦♦: las máquinas no pueden distin-guir el bien del mal, tener iniciativas, aprender de la experiencia, usarlas palabras adecuadamente, ser sujetos de su propio pensamiento, ohacer algo verdaderamente nuevo12. En el transcurso de mis discusio-nes sobre la capacidad mental artificial (en bares y en otros sitios) hehallado que dos candidatos comunes para ♦♦♦♦son hacer eleccio-

nes libres y pensar conscientemente. Según un prejuicio ordinario, unartefacto electrónico no puede ejercer la libre voluntad ni ser un su-

1 Turing, A,, «Computing Machinery and Intelligence», p. 447.2 Turing, A., ibidem, p. 447.

215

Page 212: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 212/416

 jeto de conciencia. En este capítulo y en el próximo se cuestionan

ambas suposiciones.

Desde luego es interesante por derecho propio indagar la posibili

dad de la conciencia y la libertad de los computadores. Pero la significación más profunda de esa investigación está en otro lado. Como

dice Herbert Simon: «Quizá la mayor significación del computadorreside en su impacto sobre la visión del hombre... el computador leayuda a obedecer, por vez primera, el antiguo imperativo conócete a 

ti mismo»3. El computador es lo que la socióloga Sherry Turkle llama

un objeto evocador, un objeto que nos demanda volvernos a anali

za r4. «Algunos objetos, y en nuestra época el computador destaca

entre ellos, provocan la reflexión sobre lo fundamental», dice. «El

computador es un nuevo espejo... Un espejo en el que la mente se re

fleja como máquina»5. Las investigaciones filosóficas sobre la posibi

lidad de la libertad y la conciencia de las máquinas son, en el fondo,

 parte de nuestro esfuerzo por entender nuestra propia naturaleza.

Ponemos los ojos en el espejo, pero nos fijamos en nosotros. ¿Somos

máquinas de cierto género? Espero que las próximas páginas no sólo

ayuden a dar más verosimilitud a esta posibilidad, sino también a hacerla más llevadera.

216 Inteligencia artificial. Una introducción filosófica

7.1. Turbo Sam hace una elección

«Marvin, estoy cansado del MIT», dijo un día Turbo Sam a su

 programador jefe. «Sé que vosotros me habéis construido y no

quiero parecer ingrato. Pero en el exterior hay un gran mundo. Stanford y Carnegie-Mellon me han hecho ofertas muy atractivas. Los

 británicos me quieren también, y he decidido ir al Instituto Turing de

Glasgow. Ha sido una elección difícil. A alguien como yo le sentaría

mejor California que Escocia, pero en el Instituto me han ofrecido

gastar siete millones en construirme una esposa y niños. Marvin, sé

que a la Agencia de Proyectos de Investigación Avanzados de De

fensa esto le va a disgustar. Pero eso es asunto tuyo.»

Turbo Sam ha deliberado cuidadosamente sobre las varias posibi

lidades, ha tomado en cuenta todos los datos disponibles, sopesado

3 Simon, H., «What Computers Mean for Man and Society», p. 1191.

4 Turkle, S., The Second Self: Computers and the Hum an Spirit , p. 13.

5 Turkle, S., ibidem , pp. 16,306, 308.

Page 213: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 213/416

Libertad 217

los pros y los contras, reflexionado sobre las delicias de la paternidadfrente al encanto de California, y ha decidido, por último, marcharsecon los expertos en robótica de Glasgow. Eso, en opinión de cual-

quiera, es hacer una elección. Negarse a aplicar la palabra «elección»a la actuación de los mecanismos de decisión de Turbo Sam sería tanabsurdo como rehusar decir que Turbo Sam piensa y entiende. Unrobot, no menos que un ser humano, es capaz de elegir entre alterna-tivas.

Pero elegir no siempre es elegir libremente. ¿Fue libre la elecciónde Turbo Sam? A primera vista la respuesta es no. Cada una de lasdecisiones de Turbo Sam es el resultado inevitable de su programa-ción: al hacer su elección se limitó a seguir las instrucciones de su

 programa. Quien conociera lo bastante el programa y los datos alma-cenados en los diversos mecanismos de memoria del robot podríacalcular exactamente lo que Turbo Sam ha de decidir (descontadoslos errores de hardware y las perturbaciones que pueden producirse

 —cuando las ranas críen pelo— como resultado de las indetermina-ciones cuánticas). Es más, podría conocer el resultado de la decisión

de Turbo Sam antes que él si trabajara rápido. Entonces, ¿cómo po-dría ser libre la elección? Cada una de las decisiones de Turbo Samestá determinada enteramente por los detalles de su diseño y las in-fluencias de su entorno que le hayan afectado desde el día de su ma-nufactura. Turbo Sam elige, pero parece que en cada ocasión es inca-

 paz de elegir de otra manera.Este argumento parece definitivo. Pero no lo aceptemos sin opo-

ner resistencia. Su veneno actúa con la misma efectividad en los hu-

manos que en los robots.

7.2. ¿Es una ilusión la libertad de la voluntad?

Según Boswell, Samuel Johnson afirmó en cierta ocasión: «Señor, sabemos que nuestra voluntad es libre, y no hay que darle más vuel-tas»6. Pero lo que el Dr. Johnson debería haber dicho es que tenemos la sensación de que nuestra voluntad es libre; y, por desgracia, el he-cho de que tengamos la experiencia subjetiva de elegir libremente noimplica que haya que dejar de darle vueltas, pues esta experiencia

6 Boswell, J.,  Life o f Samuel Johnson, vol. 2, 10 de octubre de 1769 (p. 231 de la

edición de Birrell).

Page 214: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 214/416

 puede ser una mera ilusión. Un pequeño experimento puede convencernos de que es posible.

Durante el próximo medio minuto levante el índice de la mano

derecha tres o cuatro veces. Elija los momentos espontáneamente. Intente averiguar si hay un lapso apreciable entre el momento de laelección y el de ponerse el dedo en movimiento.

Vale. Si sus experiencias subjetivas son como las mías, el movimiento de los músculos de su dedo habrá sucedido más o menos inmediatamente a su decisión consciente de iniciar la acción. Lo asom

 broso es que un técnico equipado con los instrumentos apropiadoshabría sabido que usted iba a levantar el dedo aproximadamente un

 segundo antes de que comenzara el movimiento. H. H. Kornhuber ysus asociados realizaron este experimento clásico en los años setenta,usando sujetos con varios electrodos fijados al cuero cabelludo y aldedo78. Descubrieron que se empezaba a configurar un patrón característico de actividad cerebral segundo y medio antes de que comenzara el movimiento del dedo (el patrón de actividad, registrado pormedio de un electroencefalógrafo, se conoce como el Bereitschaftspo-

tential ). En este contexto, un técnico que observara el inicio de estaactividad de su cerebro sabría que usted está a punto de levantar eldedo, y —esto es lo sobrecogedor— lo sabría casi un segundo antesde que usted tenga la experiencia subjetiva de elegir libremente elmomentos. Las implicaciones de este experimento son aún objeto deacalorado debate9. Sin embargo, ha influido en la creencia de varios,autores en que nuestra experiencia subjetiva de libre voluntad es unailusiónI0.

218 Inteligencia artificial. Una introducción filosófica

7 Deecke, L., Grozinger, B., y Kornhuber, H. H., «Voluntary Finger Movement inMan: Cerebral Potentials and Theory». En un total de 87 experimentos con 39 sujetos,el Bereitschaftspotential comenzó por término medio 750 miÜsegundos antes que laflexión del dedo, y en algunos sujetos 1,5 segundos o más antes de la flexión. (Véasetambién Libet, B., «Unconscious Cerebral Initiative and the Role of Conscious Will inVoluntary Action».)

8 El tiempo de reacción del movimiento del dedo es sólo, más o menos, de una dé

cima de segundo. (Así, si, por ejemplo, nos piden presionar un botón al oír un timbre, pasa aproximadamente una décima de segundo antes de que los músculos del dedo em piecen a responder.) Puesto que el Bereitschaftspotential comienza un segundo o másantes del inicio de la respuesta muscular del dedo, los resultados perturbadores de esteexperimento no se pueden explicar apelando al lapso entre decisión y movimiento.

9 Véase, por ejemplo, la discusión que sigue abartículo de Libet citado en la nota 7.10 Por ejemplo, Hart, E., Windows on the Mind: Reflections on the Physical Basis of  

Consciousness, p. 182.

Page 215: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 215/416

Libertad 219

Se citan otros muchos hechos y fenómenos en apoyo de la creen-cia de que la libre voluntad es una ilusión. Las personas dominadas

 por una sugestión posthipnótica sienten que están actuando con li- bertad, aunque en realidad están obedeciendo las instrucciones de unagente externo. La dieta puede afectar radicalmente la conducta. Si unilustrado rey medieval se convierte en un déspota retorcido por culpade una alergia alimentaria insospechada, ¿podemos considerar libressus decisiones de reprimir y agotar con impuestos a sus súbditos? El,sin duda, habría creído firmemente que lo eran. En otra línea distinta,muchas elecciones supuestamente libres serán en realidad el resultado

del carácter heredado genéticamente de una persona. A través delADN de nuestros genes y de los procesos de selección natural, las in-fluencias que moldean nuestras decisiones se retrotraen a las vidas deincontables generaciones de antepasados. De forma semejante, a me-nudo elegimos sobre la base de preferencias imbuidas por padres yeducadores o impregnadas por nuestro medio social. También unaelección puede estar dictada por los efectos de la experiencia prenatalo infantil, o una fobia no reconocida u otros factores ocultos. Por ci-

tar a un psiquiatra: «La libre voluntad es un asunto puramente sub- jetivo... Puede usted tener un sentimiento de libre voluntad y, sinembargo, hay... una determinación completa si se juzga desde el exte-rior» 11. Parece que a menudo, y quizá siempre, nuestras eleccionesson el resultado de factores que escapan a nuestro control. Quizá nossentimos libres porque somos capaces de imaginar  con facilidad queseguimos cursos de acción distintos de los que seguimos.

Muchas personas que creen que la libre voluntad es una ilusión basan su creencia en una teoría llamada deterninismo. Decir que unsistema (como un computador) es determinista es decir que todoacontecimiento que ocurre en el sistema es producido por causas. Sedice que las causas del acontecimiento lo «determinan», en el sentidode que una vez que han ocurrido las causas, el acontecimiento notiene más remedio que ocurrir, dadas las circunstancias y las leyes dela naturaleza. Usted probablemente tenga una posición determinista

acerca de su coche. Sin duda cree que si, por ejemplo, falla el sistemaeléctrico, 1) tiene que haberse producido alguna causa o serie de cau-sas, y 2) una vez que la causa o causas operan, el efecto tiene que se-guir, dadas las leyes pertinentes de la naturaleza y las circunstancias*

" Hans Shaefer, en Eccles, J. C. (comp.), Brain and Conscious Experience, páginas310-311.

Page 216: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 216/416

220 Inteligencia artificial Una introducción filosófica

(una de las cuales es, sin duda, que nadie advirtió la avería e intervino para corregirla antes de que se produjera el efecto).

Se han escrito millones de palabras sobre el problema de sí el uni

verso es un sistema determinista. Todo lo que ocurre en un universodeterminista está causado por acontecimientos previos, y una vez queocurren esos acontecimientos, sus efectos se seguirán necesariamente.El futuro está producido inexorablemente por el pasado. Una de lasgrandes figuras de la ciencia, Pierre-Simon Laplace (1749-1827), pusomucho colorido a las consecuencias del determinismo:

Debemos considerar el estado presente del universo como el efecto de su es

tado previo y como causa del estado que ha de venir. [Consideremos] una inteligencia informada de todas las fuerzas que mueven la naturaleza y de las

 posiciones relativas, en un instante dado, dé todas las cosas del universo, yademás suficientemente amplia para someter a análisis estos datos... Para estainteligencia nada sería incierto: el futuro, como el pasado, estarían presentesante sus ojos!2.

La teoría de que el universo entero es determinista se conoce

como determinismo universal . Es una postura que hoy se consideraincompatible con la física moderna, aunque unos pocos científicos(entre ellos Einstein) han continuado manteniéndola u. Por el contrario, el determinismo neurofisiológico  es una tesis mucho más modesta. Esta teoría sostiene que en cierto nivel de análisis, el cerebrohumano (y el cuerpo humano, en general) es un sistema determinista.Según el determinismo neurofisiológico cada una de las decisionesque tomamos es el resultado de causas preexistentes: generalmenteacontecimientos y estados del cerebro, sistema nervioso, órganos ytejidos (incluido, claro está, el aparato sensorial). En el estadio actualno está claro si el determinismo neurofisiológico es verdadero. Sinembargo, mucha gente lo toma por una teoría plausible; y es ciertoque a lo largo de este siglo han sucumbido a la explicación causal másy más aspectos de la conducta interna y externa del cuerpo humano.

La razón de la apostilla «en cierto nivel de análisis» es ésta. Los

deterministas neurofisiológicos no creen que todos los acontecimien-1213

12 Laplace, P.,  Essai Philosopkique sur les Probabilités, segunda edición, pp. 3-4(traducción de Diane Proudfoot).

13 «Usted cree en [un] Dios que juega a los dados, y yo en una ley y orden completos en un mundo que existe objetivamente», escribía Einstein en una carta a Max Born(The Bom-Einstein Letters, 7 de septiembre de 1944).

Page 217: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 217/416

Libertad 221

tos que ocurren dentro del cerebro, incluidos los cuánticos, estén de-terminados causalmente. Se dice que el cerebro es determinista en elmismo sentido en que lo es un computador: la «máquina virtual» es

determinista y si la indeterminación cuántica ocasiona que un ele-mentó físico se desarregle, eso se considera una avería o fallo «téc-nico». La «máquina virtual» es una máquina hipotética que se com- porta como se comportaría la máquina real si no hubiera averías ofallos cuánticos.

Está ampliamente extendida la creencia (que yo no comparto) enque el determinismo neurofisiológico tiene como consecuencia que

la libre voluntad es una ilusión. Cada una de nuestras decisiones,afirma el argumento, es el resultado inevitable de causas precedentes,causas que hacen cierto qué elegiremos antes  de que hayamos ele-gido. Nunca podemos elegir en sentido contrario a como las causasnos hacen elegir; ninguna de nuestras elecciones puede ser distinta dela que es. Entonces, ¿cómo podríamos ser libres? Igual que un equipode informáticos podría predecir todas las decisiones de Turbo Sam,un equipo de superinteligencias extraterrestres con el equipo de me-

dida adecuado podría predecir nuestras decisiones, en una ampliacióngrotesca del experimento de Kornhuber con los dedos. (Si por algúnmotivo nos informaran de una de sus predicciones por anticipado

 podríamos, desde luego, indignarnos y hacer lo contrario. Pero tam- bién habrían previsto eso. Su predicción sería: dejado a sí mismo, esteorganismo hará X, y si se lo decimos, entonces el cambio producidoen sus estados internos por esta información dará como resultadoque haga Y.)

La opinión de que la libre voluntad es una ilusión se ha conver-tido en una postura ortodoxa en la IA. Para Marvin Minsky la librevoluntad es un «mito» H.

Muchas nociones de nuestras explicaciones informales no aguantan un exa-men detenido. La libre voluntad o volición es una de estas nociones... Lafuerza de la convicción de un hombre o de una máquina sobre estas cosas nonos dice nada...1415Según el punto de vista científico moderno, sencillamente

no hay lugar para «la libertad de la voluntad humana»16.

14 Minsky, M., The Society of Mindy p. 307,15 Minsky, M., Semantic Information Processingy p. 431.16 Minsky, M., The Society of Mindy  p. 306.

Page 218: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 218/416

222 Inteligencia artificial. Una introducción filosófica

Geoff Simons es igual de directo. La noción de libre voluntad,

dice, pertenece a la «metafísica de una época muy precientífica» 17. Y  

sigue:

... los seres humanos son esclavos de la materia bruta, impelidos a actuar demodos particulares en virtud de factores bioquímicos y neuronales... Lo quevemos es la naturaleza ilusoria de la libre voluntad. Es una doctrina que prospera en culturas precientíficas18.

Voy a argumentar que la libre voluntad no es ningún mito. Los se-

res humanos eligen libremente, al menos en muchas ocasiones, y reco-

nocerlo es por entero compatible con la ciencia moderna. Estoy deacuerdo en que la existencia de la libre voluntad no se puede estable-

cer apelando sencillamente a nuestra experiencia subjetiva de libertad;

 pero, por fortuna, existen argumentos más fuertes. Por contra, sin em-

 bargo, estos argumentos también establecen que Turbo Sam es capaz

de hacer elecciones libres. Para mí este efecto es aceptable. Encaja bien

con mi creencia en que, en un sentido, también somos máquinas.

7.3. Dos clases de libertad

1.  El aleatorizador de Turing 

Supongamos que usted se debate entre el pastel de chocolate y la

tarta de queso y arándanos. Después de unos momentos de indeci-

sión se decanta repentinamente, y sin ninguna razón manifiesta, por

la tarta de queso. La propuesta que voy a considerar es que la libre

elección, en tales circunstancias, consiste en hacer una selección

aleatoria  entre alternativas igualmente preferibles. Según esta pro-

 puesta, la elección es sólo en parte el resultado de factores determi-

nantes. Cosas como las preferencias arraigadas y el estado ocasional

del nivel de azúcar de la sangre eliminan de manera determinista las

 posibilidades excepto el pastel de chocolate y la tarta de queso. Sin

embargo, la elección final entre estas dos es producto del azar. Si esto escierto, el determinismo neurofisiológico sólo reina hasta que se con-

fecciona la lista final de opciones posibles. Luego se tiran los dados.

17 Simons, G., The Biology o f Computer Lifey p. 100.

18 Simons, G., ibidem , pp. 100,109.

Page 219: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 219/416

Libertad 223

Emplearé el término elección de preferencia nula para la situaciónen que se hace una selección entre alternativas que son, en lo princi

 pal, igualmente satisfactorias en opinión del elector o electora, dado

el tiempo disponible para deliberar y la información de que dispone.La teoría de que las elecciones de preferencia nula se hacen al

azar es especulativa. La teoría postula que en algún lugar del cerebroexiste un mecanismo neurofisiológico que realiza la función de selección al azar entre varias alternativas dadas (quizá el mecanismo es unaespecie de «amplificador cuántico»). Si existe o no semejante mecanismo es una cuestión empírica. En un computador se puede introducir fácilmente un mecanismo así. Lo único que hace falta, esencialmente, es un interruptor controlado por un contador Geiger queregistre la desintegración radiactiva aleatoria de un trozo de radio.Si a Turbo Sam se le dota de elementos que le permitan seleccionaral azar en situaciones de preferencia nula, entonces, ni siquiera el genio omnisciente de Laplace podrá predecir las elecciones del robot(puesto que la falta de predictibilidad es la esencia de un resultadoverdaderamente aleatorio).

Turing fue de los primeros en examinar la idea de añadir un ingenio para hacer selecciones aleatorias a un computador determinista 19.Y destaca que a tal máquina se le puede «atribuir libre voluntad» 20.Pocos de quienes han escrito sobre el tema de la libre voluntad estarían de acuerdo. Es "una doctrina enraizada de la filosofía que una

19 Turing, A. M,, «Intelligent Machinery», p. 9; «Computing Machinery and Inte lligence», p. 438. Turing utiliza el término «parcialmente aleatoria» para describir las

máquinas que contienen un auténtico proceso aleatorio de selección (esto es, un proceso controlado por la desintegración radiactiva), y el término «aparentemente parcialmente aleatoria» para describir las máquinas que, de hecho, son determinísticas, perocontienen un procedimiento de selección que las hace parecer a primera vista parcialmente aleatorias (por ejemplo, un programa que use los decimales de tt para determ inar la selección).

20 «Computing Machinery and Intelligence», p. 438. Turing añade después «aunque yo mismo no usaría esta expresión». Es desesperante que Turing no dé ningunaaplicación de este recelo. Sospecho que estaba pensando algo de este estilo: «Puede

usted, si así lo desea, decir que esta máquina tiene libre voluntad; pero yo por mi partecreo que esta añeja expresión es tan vaga que es mejor evitarla. Considero que “selección aleatoria entre alternativas” es un sustituto preciso y científico de esa errática yoscura charla sobre la libertad de la voluntad». (Adoptó una posición similar con res

 pecto al término «pensar»; ibid., p. 442.) En 1951, en una charla radiofónica emitida por la BBC, Turing propuso que añadir un mecanismo simple —«algo del estilo deuna rueda de ruleta o una porción de radio»— bastaba para ofrecer un computador programado con libre voluntad (véase Hodges, A., Alan Taring: The Enigma, pp. 441-2).

Page 220: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 220/416

224 Inteligencia artificial. Una introducción filosófica

elección aleatoria no es una elección libre21. Esta doctrina me parece producto de una argumentación defectuosa, y erigiré una breve defensa de la idea de que, en una situación de preferencia nula, elegir al

azar es elegir libremente (como se verá, la idea de Turing no funcionafuera de las situaciones de preferencia nula).Hay dos argumentos comunes en apoyo de la doctrina de que las

elecciones al azar no pueden ser elecciones libres. Espero convencerde que ambos son falaces. Llamaré al primero argumento del desvali-

miento. Jei'ome Shaffer lo ha presentado con elegancia. Si las decisiones «brotan espontánea y aleatoriamente... entonces el agente estádesvalido y a merced de estas erupciones internas que controlan su

conducta»22. En tono semejante, John Thorp habla de cambiar lasataduras del determinismo causal por las ataduras del azar23. Si laselecciones simplemente surgen en usted al azar, sostiene el argumento, entonces usted no controla su conducta: las acciones no sonmás que accidentes que le acontecen. «No podemos eludir una visióntotalmente determinista del hombre al precio de admitir que partes fundamentales de nuestra conducta escapan a nuestro control»,afirma Geoff Simons24.

El problema del argumento del desvalimiento es que presenta unaimagen completamente errónea de lo que es elegir entre alternativasen una situación de preferencia nula. Si el aleatorizador pudiera hacerque igual esperemos en la acera o nos lancemos bajo las ruedas de uncamión, que le acerquemos educadamente un vaso de jerez a nuestroinvitado o lo agarremos por las solapas y le vociferemos una canciónsalaz en la cara, entonces estaríamos ciertamente a merced de fuerzas

incontrolables. Pero éstas no son elecciones de preferencia nula. Enuna situación de preferencia nula, las deliberaciones de quien elige producen varios esquemas alternativos de acción, todos los cualesson más o menos igualmente preferibles para la persona. El aleatorizador simplemente provoca desempates! Lejos de estar desvalido,quien elige crea los esquemas de acción y juzga que todos ellos sonaproximadamente igual de apropiados para las circunstancias.

21 Dos autores recientes que, de varias maneras, han cuestionado la doctrina sonDennett, D. D., «On Giving the Libertarians What They Say They Want», y Van In-wagen, P., An Essay on Freewill , pp. 126-50.

22 Shaffer, J. A., Philosophy o f Mind> p. 106.23 Thorp, J., Free Will: A Defence Against Neurophysiological Determinism , p. 71.24 Simons, G., The Biology of Computer Life> p. 111.

Page 221: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 221/416

Libertad 225

El segundo argumento que quiero combatir es el que se refiere ala responsabilidad. He aquí cómo lo formula A. J. Ayer.

[La razón por la que deseamos] mostrar que los hombres son capaces de actuar libremente [es] inferir que pueden ser responsables moral mente de loque hacen. Pero si es asunto de puro azar que un hombre actúe de una manera y no de otra... difícilmente puede ser responsable25.

Permítaseme parafrasear y expandir este comprimido razonamiento. «Aprópiese usted de la palabra libre  y aplíquela, si quiere, aelecciones hechas al azar», dice el argumento. «Nada le impide usar

las palabras como le venga en gana. Pero sepa que ninguna personasensata le seguirá en ese nuevo uso. No se puede atribuir responsabilidad a un agente por algo que hace accidentalmente; por tanto, quienincurra en ese nuevo uso deberá conceder que los agentes no son res ponsables de sus acciones libremente elegidas. Pero esto es tan absurdo como apropiarse de la palabra  seguro  y aplicarla a edificiosdonde es arriesgado entrar. Igual que nuestra preocupación principalal averiguar si un edificio es seguro és determinar si se puede entrarsin peligro, nuestra preocupación principal al averiguar si una acciónfue elegida libremente es establecer si podemos tener a su agente porresponsable de la acción.»

Este argumento no me parece persuasivo. Trafica ilegítimamentecon las connotaciones de expresiones como «asunto de puro azar» y«hecho por puro accidente». Unos cuantos ejemplos ayudarán a poner de manifiesto la falacia. Imagine que un misterioso rayo de ener

gía atraviesa su brazo cuando está tomando una taza de café. El curioso efecto de ello es que convierte en asunto de puro azar que ustedsiga bebiendo o vuelque el contenido de la taza en mi solapa. En estascircunstancias usted, evidentemente, no es responsable si acaba pormancharme de café, igual que si otra persona chocara con su brazo.El argumento de Ayer encaja perfectamente con este tipo de caso.Pero ahora supongamos que el rayo aleatorizador pasa a través de lacabeza de un secuestrador, Pernod, que está a punto de pegar un tiro

a uno u otro de sus rehenes, Kirsch y Campari, y no le importa mucho a cuál. El efecto del rayo es convertir en asunto de puro azarcuál, Kirsch o Campari, es el seleccionado. La bala, de hecho, la recibe Kirsch. ¿Diríamos que Pernod no es responsable de haberlo ma-

25 Ayer, A. J., Philosophical Essays, p. 275.

Page 222: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 222/416

226 Inteligencia artificial. Una introducción filosófica

tado? En mi opinión, Pernod es claramente responsable de la muerte

de Kirsch, aunque fuera «asunto de puro azar» que se seleccionara la

opción  Disparar sobre Kirsch  en vez de la opción  Disparar sobre 

Campari. Al fin y al cabo, Pernod ya había decidido disparar sobreuno u otro, y el hecho de que la elección final fuera aleatoria no pa

rece importante. La moraleja de esto es que las consideraciones del

argumento de Ayer no se aplican a una elección azarosa hecha bajolas condiciones de una situación de preferencia nula.

Esto completa mi defensa de la propuesta de que la selección

aleatoria de una alternativa en una situación de preferencia nula es

un tipo verdadero de elección libre. Aquí tenemos una clase auténticade libertad que fácilmente se podría suministrar a un computador

 pensante.

Antes he insistido en que la selección al azar sólo es una estrategia

apropiada en situaciones de preferencia nula. Explicaré por qué. Con

sideremos el tipo de situación en que la persona que elige, después de

reflexionar, juzga que uno de los varios cursos de acción abiertos ante

ella desbanca a todos los demás. La razón, la inclinación y el senti

miento apuntan firmemente hacia una opción. Llamaré a ésta «situación con candidato destacado». No sería sensato confiar las elecciones

de este género a un procedimiento de selección aleatoria. ¿No desearía

mos optar por el curso de acción más resplandeciente en vez de jugara la ruleta? Claro está que podemos desear reservarnos el derecho de,

caprichosamente, volver la espalda al mejor candidato, por lo menos

de vez en cuando, pero sólo en las ocasiones que queramos, no al azar.Si el efecto del aleatorizador fuera desviarme del curso de acción que

claramente juzgo mejor dadas las circunstancias, entonces sí estoydesvalido y en poder de fuerzas que escapan a mi control.

 No, el aleatorizador no tiene ningún papel en las situaciones con

candidato destacado. Es el momento de considerar un segundo tipo

de libertad.

2. Cómo los deterministas pueden guardar la ropa y nadar  

libremente

He aquí una historia de amor.

Pedro conoce a Samanta. A Pedro le gusta mucho Samanta. Pedro piensa encasarse con Samanta. Pedro delibera a fondo sobre la vida, el amor, las hipo-

Page 223: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 223/416

Libertad 227

tecas, la vida doméstica y otros factores que vienen al caso. Pedro decide sinreservas declararse a Samanta. Samanta le da calabazas. Y vivieron felices.

He aquí una historia acerca de esta historia.Si el determinismo neurofisiológico es verdadero, entonces la de-

cisión de Pedro de declararse a Samanta fue el resultado de factorescausales preexistentes (tales como las creencias de Pedro acerca de Sa-manta —en jerga, sus «estados informacionales»— y sus necesidades,

 preferencias, arrebatos de pasión, etc.). Llamemos a la decisión de Pe-dro de declararse a Samanta «la elección» y a los varios factores que

 produjeron esa decisión «las causas». La elección fue el resultado de-terminista de las causas. Una vez establecidas las causas, la elecciónfue una conclusión inevitable. Dadas las leyes pertinentes de la natu-raleza —en este caso las leyes de la neurofisiología, de la biofísi-ca, etc.— esta elección y no otra tuvo que seguir a las causas (igual quelas causas tuvieron que seguir a sus causas, y así sucesivamente). Unavez dispuestas las causas, habría sido una violación de las leyes de lanaturaleza que Pedro decidiera no declararse a Samanta. Evidente-

mente no estaba en poder de Pedro violar las leyes de la naturaleza. Ni estaba en su poder decidir no declararse. La elección, pues, no fuelibre, puesto que Pedro no podía optar por otra cosa.

Este argumento tiene cierto aire siniestro, y varios autores hanformulado versiones del mismo (recientemente John Thorp y Petervan Inwagen)26. Pero yo, por mi parte, lo encuentro ilegítimo. La piedra angular del argumento es pasar de la verdad evidente de quePedro no puede violar las leyes de la naturaleza (en particular, las le-

yes que gobiernan el funcionamiento de su cerebro), a la afirmaciónde que no podía abstenerse de declararse a Samanta. Este paso es fa-laz. Ciertamente estaba en el arbitrio de Pedro decidir no declararse.Si, por ejemplo, hubiera tenido la obligación de cuidar a un pariente,o informaciones descalificadoras acerca de Samanta, podría haber de-cidido de otra manera, y no habría violado las leyes de la naturalezaal hacerlo. Pedro podría haber decidido, y lo habría hecho, de otraforma si su información, inclinaciones o situación personal hubieran

sido diferentes; si, en otras palabras, hubieran actuado un conjuntodiferente de factores causales. El argumento acierta cuando pone de

26 Thorp, J  Free Will: A Defence Against Neurophysiological Determinism > p. 27;Van Inwagen, P.,  An Essay on Freewill , capítulo III. Véase también Minsky, M., The 

Society o f Mind , p. 306.

Page 224: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 224/416

228 Inteligencia artificial. Una introducción filosófica

relieve que, en un universo regido por leyes, no se plantea la cuestiónde que el primer conjunto de factores causales vaya seguido por ladecisión de no declararse. Pero no permitamos que eso oscurezca el

hecho de que si las causas hubieran sido diferentes, entonces habría procedido una decisión diferente.

Los incompatibilistas son las personas que creen que la verdad deldeterminismo neurofisiológico es incompatible con la existencia de lalibre voluntad. La mercancía con la que trafican son los argumentoscomo el relativo a Pedro. Deseo proponer que no hay incompatibilidad. Aunque Pedro sea un sistema determinista, sigue siendo verdadque él y sólo él fue autor de su decisión, y que si sus creencias, deseos, etc., hubieran sido distintas, habría decidido de forma diferente.La decisión determinada de Pedro fue a la vez causada y   libre: libre

 porque estuvo causada por las creencias, deseos, inclinaciones, etc.,de Pedro. Nadie le presionó psicológicamente ni le obligó físicamente a declararse. Como una vez dijo John Hospers: «El lema de lalibertad es  yo  causo mis acciones»2-. El Pedro determinado es capazde deliberar sobre su futuro y originar y ejecutar sus decisiones, se

gún las percepciones de sus deseos, necesidades y circunstancias. Siesto no es libertad, ¿qué lo es?Si me concede usted que hay un género importante de libertad

cuya existencia es compatible con la verdad del determinismo neurofisiológico, entonces usted, como yo, es compatibilista. En opinióndel compatibilista son libres las elecciones determinadas por los deseos, esperanzas, conocimientos, etc., de quien elige. El compatibi-lismo ofrece tranquilidad: la posibilidad de que el determinismo neu

rofisiológico sea verdadero no debe hacernos temer por la libertad.La libre voluntad no es una ilusión.

Éstas son también buenas noticias para Turbo Sam. También él posee esta segunda clase de libertad. La decisión de Turbo Sam de iral Instituto Turing fue tan libre como la decisión de Pedro de declararse a Samanta. La elección de Turbo Sam, no menos que la de Pedro, fue el producto de sus creencias, deseos e inclinaciones. TurboSam no fue obligado, y tenía la capacidad de hacer otra cosa, porquesi su información, circunstancias personales o inclinaciones transitorias hubieran sido distintos, podría haber hecho una elección diferente.*

17 Hospers, J., An Introduction to Philosophical Analysis, p. 330.

Page 225: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 225/416

Libertad 229

Filósofos de esta orientación han defendido el compatibilismodesde los siglos XVII y XVIII28. Habría sido torpe por mi parte no advertir que estas ideas han tenido a veces una recepción desdeñosa (elgran filósofo Immanuel Kant aludió con brusquedad al compatibilismo llamándolo «un subterfugio despreciable»29). En lo que quedade capítulo presentaré las objeciones más importantes al compatibilismo y explicaré el modo de responderlas.

7.4. Cleptomanía y otras compulsiones

K es un cleptómano. Para su desazón, un deseo morboso de robarle impulsa a cometer todos los días una docena, más o menos, de pequeños hurtos. K desea fervorosamente no ser presa de este deseocompulsivo, pero éste le vence muy a menudo. ¿Roba K por propiaelección? La mayoría de la gente opinaría que no. Lejos de actuarlibremente, roba bajo la tiranía de su propio deseo incontrolable.Otros muchos están en el mismo apuro que K: jugadores crónicos

que anhelan librarse de su compulsión, adictos a las drogas asqueadosde su estado de adicción, etc. Tales seres dolientes son violentados por sus propios deseos30.

Hay quien piensa que estos casos ponen de relieve la inutilidad delo que los compatibilistas llaman libertad. En el sentido compatibi-lista, una decisión es libre si, dicho toscamente —modificaré esto enel siguiente párrafo—, la decisión es el producto de los deseos y creencias del agente, y está tomada en ausencia de chantaje, lavado de cere bro y otras coerciones. Pero la repentina decisión de K de robar una barra de chocolate en el supermercado es claramente producto de sus

28 Los primeros compatibilistas fueron Thomas Hobbes y David Hume. Hobbes:«Un hombre libre es el que, en aquellas cosas que por su fuerza y talento es capazde hacer, no está impedido de hacer lo que quiere hacer» (Wor&s, ed. Moiesworth,W., vol III, pp. 196-7, alrededor de 1650). Hume: «Sólo podemos entender por libertad, pues, una capacidad de actuar o no actuar, conforme a las determinaciones de la

voluntad» (An Enquiry Concerning Human Understanding , p. 95, 174S). AunqueHume y Hobbes pensaban que estaban dando el análisis auténtico del concepto de li bertad, creo que el análisis compatibilista describe sólo uno de los tipos posibles de li bertad. Es, sin embargo, una clase de libertad que reviste especial interés, porque sinduda la poseemos, al contrario que los otros tipos de libertad anhelados por otros pensados (véase el estudio del libertarismo en la sección 7,5).

29 Kant, Critique o f Practical Reason, p. 90.30 Esta feliz expresión es de Harry Frankfurt.

Page 226: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 226/416

230 Inteligencia artificial. Una introducción filosófica

deseos, y no hay coerción externa. Si para el compatibilista esta deci-sión se cuenta entre las libres, entonces la libertad en ese sentido esalgo bien miserable que no merece tal nombre.

La respuesta a esta objeción es breve: es un error pensar que loscompatibilistas dicen que una decisión es libre si es el resultado decualesquiera deseos del agente. Para el compatibilista una decisiónsólo es libre si está tomada en ausencia de compulsión, y la tiranía deun deseo obsesivo no es menos compulsiva que las coerciones exter-nas como el chantaje y la tortura. Los compatibilistas consideran li- bre una elección sólo si es el resultado de deseos no compulsivos.

Aunque esta breve respuesta es correcta, deja pendiente una pre-gunta importante: ¿Cuál es la diferencia entre los deseos compulsivosy los demás? El mérito de mostrar a los compatibilistas lo que pue-den decir sobre esto corresponde a Harry Frankfurt31. Para esta ma-teria es fundamental lo que Frankfurt llama «deseos de segundo or-den». Un deseo de segundo orden es un deseo acerca de otro deseo.Así, cuando K desea librarse de su deseo morboso de robar, tiene undeseo de segundo orden, como un adicto a la heroína que desea no

desear la droga.Los deseos de segundo orden pueden ser suaves o vehementes,desganados o profundos. El deseo de K de librarse de su deseo de ro-

 bar es vehemente y profundo, y precisamente porque este deseo desegundo orden tiene para él tanta importancia es por lo que se puedeafirmar de él que es violado por su deseo de robar. Por tomar unejemplo que contraste con éste, imaginemos una persona que a vecesconcibe el deseo suave e intelectualizado de no desear relaciones se-

xuales. Si elige el sexo cuando tiene presente este deseo, su elecciónsigue siendo plenamente libre, pues su deseo de segundo orden es(por hipótesis) relativamente leve y habita la periferia de sus intere-ses. Por el contrario, una persona que da vía libre a su deseo de grati-ficación sexual a pesar de un deseo sentido y profundo de no desearel sexo, ha sucumbido, como el cleptómano, a su propio deseo, y noes libre. Una elección que sea resultado de deseos en conflicto condeseos de segundo orden suaves e insignificantes puede ser libre; perouna elección que sea resultado de deseos que chocan con deseos desegundo orden profundos y vehementes no es libre.

31 Frankfurt, H., «Freedom of the Will and the Concept of a Person». Véase tam- bién Slore, M., «Understanding Free Will». En lo que sigue me apartaré muchas vecesde la terminología de Frankfurt.

Page 227: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 227/416

Libertad 231

Por volver a la palabra «compulsivo», un deseo compulsivo se puede ahora caracterizar como un deseo que impera a pesar de un deseo fundamental y profundo de librarse de él. (La caracterización, sin

duda, sigue siendo algo vaga; un análisis más preciso es proyecto dela psicología filosófica.)32 Empleando esta caracterización, la máximadel compatibilista de que «una elección es libre sólo si es resultado dedeseos no compulsivos» se puede expresar con mayor riqueza: unaelección es libre sólo si es resultado de deseos que no están en conflicto con los deseos de segundo orden que tengan importancia central para quien elige. Esto concluye la respuesta que dan los compati- bilistas a la acusación de que la cleptomanía y otras compulsionesmuestran que su género de libertad no es merecedor de ese nombre.

 Posdata

Afortunadamente los cleptómanos, alcohólicos y otros individuosviolentados por sus deseos están lejos de ser casos perdidos. El con

sejo y el uso de técnicas de gestión del deseo pueden ayudar a domesticar o erradicar los más poderosos deseos. En cierta ocasión Voltairetuvo la siguiente ocurrencia contra el compatibilismo: «Cuando hagolo que deseo, soy libre... pero no puedo evitar desear lo que deseo.»Se equivocaba. Los* seres humanos no son juguetes desvalidos de susdeseos. La mayoría somos capaces, en mayor o menor grado, de producir cambios deliberados en nuestro sistema de deseos y voliciones.(Como se suele decir, el truco de la felicidad no está en aprender a

conseguir lo que se desea, sino en aprender á desear lo que se tiene.)

7.5. Libertarismo

Los libertarios son aquellas personas, generalmente filósofos o teólogos, que ansian un tercer género, especialmente fuerte, de libertad.Para tener una imagen clara de lo que desean los libertarios, contem

 plemos una breve conversación entre un libertario y un compati bilista.

32 Para continuar con este tema, véase «Identification and Externality», de HarryFrankfurt.

Page 228: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 228/416

232 Inteligencia artificial. Una introducción filosófica

LIBERTARIO. Supongamos que yo delibero sobre la alternativa entreX e Y, y finalmente me decido por X. Lo que quiero destacar es que

es apropiado llamar libre esta elección si yo hubiera podido elegir Y*Lo distintivo de la verdadera libertad siempre es que quien elige po-dría haber elegido de otra manera. Si en realidad yo no pude haberelegido Y en vez de X, entonces mi elección no fue libre.

COMPATIBILISTA. Por ahora no estoy en desacuerdo con nada de loque dice usted. En el determinismo, su elección de X estuvo determi-nada causalmente, pero, con todo, es perfectamente cierto que usted

 pudo haber elegido Y. Su selección de X fue producida por variosfactores causales, como sus deseos e información. Si estos factoreshubieran sido otros adecuadamente distintos, habría elegido Y en vezde X. Si, por ejemplo, hubiera deseado Y con mucha más fuerza queX, entonces puede que hubiera elegido Y. Por tanto, es cierto que us-ted pudo haber elegido otra cosa.

LIBERTARIO. Un subterfugio enteramente despreciable, querido se-ñor. Lo que digo es que mi elección fue libre sólo si pude haber ele-gido otra cosa en las circunstancias que de hecho tuvieron lugar . Loque usted defiende —que yo habría elegido de forma diferente en cir-cunstancias diferentes — no afecta al asunto de si pude o no haber ele-gido de forma diferente en las mismas circunstancias que se dieron enel momento. Llamar libre a mi elección, en el verdadero sentido de la

 palabra, es decir, que incluso contando con los deseos, creencias, in-

clinaciones, etc., que yo tenía en ese momento, pude, no obstante, allíy entonces, haber elegido de forma diferente a como lo hice. Desdemi punto de vista, el determinismo neurofisiológico (que, me gustaríaseñalar, es una especulación no demostrada) tiene la consecuencia deque nunca son verdaderamente libres las elecciones de nadie. Todadecisión, según usted, es el resultado regido por leyes de una colec-ción de causas psicológicas y fisiológicas: la decisión no podría habersido otra a menos que las causas hubieran sido diferentes. Señor, sihallo que me ha vendido usted una vaca enferma, no me apaciguaráasegurándome que en otras circunstancias imaginables me habríavendido una sana. Igualmente cuando me dice que ninguna de miselecciones podría haber sido distinta de lo que fue, no me consuelocon sus seguridades de que habría elegido de manera diferente consólo que las circunstancias hubieran sido otras.

Page 229: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 229/416

Libertad 233

Lo que el libertario desea, pues, es una clase de libertad que loeleve por encima del reino de las causas naturales y le dé la capacidadde elegir a favor o en contra de las fuerzas causales actuantes. (He

aquí quizá la forma quintaesenciada del ideal masculino: dominar elmundo natural.) La clase de libertad que desean los libertarios sellama libertad trascendental . También se conoce como libertad «con-tracausal».

Se supone que la libertad trascendental es diferente de la capaci-dad de elegir sobre una base puramente aleatoria. Aunque pertenece ala esencia de una elección aleatoria que igualmente se podría haber

optado de forma diferente (en las mismas circunstancias), las eleccio-nes aleatorias no son lo que el libertario dice que quiere, pues el meroazar no le puede dar el control que anhela. Se supone que la libertadtrascendental ocupa un misterioso territorio intermedio entre el azary la determinación causal33.

El libertarismo invita a proponer varias preguntas. Para empezar,¿cómo se puede saber si se podría haber elegido de forma diferenteen las circunstancias que imperaron? No, desde luego, recreando esas

circunstancias y eligiendo de nuevo, pues la segunda vez se poseeríauna información adicional en particular, la de cómo se eligió la pri-mera vez, y eso cambiaría las circunstancias. De todas formas, notiene futuro la perspectiva de recrear exactamente las mismas circuns-tancias. Los seres húmanos son tan sensibles que hay pocas oportuni-dades de que jamás estemos en el mismo estado neurofisiológico dosveces34. Parece, pues, que aunque poseyéramos una libertad trascen-dental, en la práctica acaso nunca pudiéramos saberlo.

Otra cuestión que se insinúa se refiere a este extraño «territoriointermedio» que se supone cae entre el azar y la determinación cau-sal. Un acontecimiento determinado causalmente es uno que estácausado por otros acontecimientos, y un acontecimiento aleatorio esun acontecimiento no causado, algo que «sencillamente ocurre». Portanto, si una decisión cae en el «territorio intermedio» del libertario,no puede ser aleatorio ni estar causado por otros acontecimientos.

¿Cómo es eso posible? He aquí la respuesta de un defensor actual dellibertarismo, John Thorp: «Lo que en apariencia son dos aconteci-

33 Véase, por ejemplo, Thorp, ]., Free Will: A Defence Against Neurophysiological   Determinism, capítulo VI.

34 Compárese con Dennett, D. C.,  Elbow Room: the Varieties o f Freewill Worth Wanting , p. 137.

Page 230: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 230/416

234 Inteligencia artificial. Una introducción filosófica

mientos, la decisión y la causación por parte del agente de la decisión..., son en realidad sólo uno» 35. La discípula de Thorp, JenniferTrusted, expresa la teoría de forma más tajante: «Debemos considerar

la decisión del agente como su propia causa»36. Con esta maniobra, ladecisión no es aleatoria, puesto que tiene una causa, ella misma; niestá determinada causalmente, puesto que como es causa suficientede sí misma, no fue producida por otros acontecimientos. El mismoThorp admite que la idea de una decisión que se causa a sí misma es«peculiar desde un punto de vista lógico»37.

La peculiaridad no es de por sí razón suficiente para desdeñar unateoría. Al fin y al cabo, muchas hipótesis de la ciencia moderna —lamecánica cuántica en particular— son muy peculiares. No obstante,es un consejo sensato rechazar las teorías peculiares que no cuentancon indicios en su favor. Los físicos de partículas sostienen hipótesis

 peculiares porque el peso de los indicios empíricos se lo impone. Loslibertarios, por el contrario, mantienen que hay un lugar intermedioentre el azar y la determinación causal, no porque haya indicios, sino

 porque abrigan el deseo de que exista ese sitio.

¿Vale la pena desear la libertad trascendental? En mi opinión, no;y me parece que ésta es una razón decisiva para rehusar tomar el li- bertarismo en serio. Para apreciar lo que nos perdemos si carecemosde libertad trascendental, consideremos el caso de Tweedledum, quesólo es libre en el sentido compatibilista, y el caso de Tweedledee,que tiene el dudoso privilegio de poseer libertad trascendental. Excepto por esta pequeña diferencia, Tweedledum y Tweédledee sonidénticos.

Supongamos que Tweedledum y Tweedledee se enfrentan exactamente a la misma elección, en situaciones idénticas, con creencias, deseos, esperanzas, etc. idénticos. Después de la debida deliberación, laheroína compatibilista Tweedledum elige libremente optar por A,

 pues éste es el curso de acción que en conjunto mejor cumple los requisitos, por lo que ella sabe a la luz de la información de que dis

 pone. Si le dijéramos que en esas mismas circunstancias ella no podríahaber elegido otra cosa, no se habría preocupado mucho (bendito seasu corazón compatibilista), puesto que la opción que eligió es la que

35 Thorp, J., Free Will: A Defence Against Neurophysiological Determinism , capítulo VI.

36 Trusted, J., Free W ill and Responsibility, p. 157.37 Thorp, J., Free Will: A Defence Against Neurophysiological Determinism , p. 103.

Page 231: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 231/416

Libertad 235

considera mejor (que es por lo que la eligió, claro está). Su decisiónfue el producto causal de su información, deseos, esperanzas, inclina-ciones, intereses, afectos y todo lo que haga falta, no la obra de una

fuerza extraña que arrollara inmisericorde sus preferencias. Tweedledum está contenta con su elección. Incluso si hubiera podido elegirotra cosa en las circunstancias imperantes, no habría querido hacerlo.

Puesto que la opción A es la que Tweedledum considera mejor,también es la que Tweedledee considera mejor, pues, por hipótesis,ambas tienen la misma información, intereses, inclinaciones, etc.Tweedledee está ungida por la libertad trascendental, por lo que tienela capacidad de elegir optar por algo distinto de A. Pero ¿por qué ha

 bría de hacerlo, si opina que la opción A no se puede mejorar? No esque Tweedledee quiera elegir otra cosa, pues Tweedledum no quiere,y ambas, recuérdese, son idénticas en todos los aspectos apropiados.Por lo que se ve, Tweedledee nunca necesita su libertad trascendental. Y esto vale para el resto de la gente. No me importa en absolutocarecer de libertad trascendental, y si la poseo espero no ejercerlanunca. En mi opinión, los libertarios codician una clase de libertad

que no vale la pena poseer.En esta tesitura, todos los buenos libertarios se apresuran a dar lamisma respuesta: una razón suficiente para desear la libertad trascendental es que si carecemos de ella, entonces a nadie se puede atribuirla responsabilidad moral de sus decisiones y acciones. Tal como loexpresa J. D. Mabbott: «La responsabilidad moral exige que un hom

 bre sea capaz de elegir entre acciones alternativas aunque, con anterioridad al acto, todas las condiciones del universo, incluido él mismo,

sean idénticas» 38. En opinión del libertario, si una agente no pudohaber elegido de manera diferente en las circunstancias dadas, es unerror considerarla responsable de su acción. Si los seres humanos carecen de libertad trascendental, entonces el conjunto de la prácticasocial de atribuir a los agentes responsabilidad por sus acciones y ala barlos o censurarlos en consecuencia, es un error grotesco.

 No hallo persuasivo este argumento. Si Tweedledum me golpearacon un palo de béisbol, no me impediría tenerla por responsable laidea de que, como carece de libertad trascendental, no puede elevarse

 por encima de las, leyes naturales del universo. Lo que una persona práctica considerará pertinente, cuando sopesa el grado de responsa

38 Mabbott, J. D., «Freewill and Punishment», p. 301.

Page 232: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 232/416

236 Inteligencia artificial. Una introducción filosófica

 bilidad de Tweedledum, serán cosas tales como si su conducta fue unsimple e inesperado efecto secundario de alguna medicación. O siacaso es una chica básicamente buena, pero forzada a una vida de cri-

men juvenil por un malvado padrastro. O una muchacha exploradorahonesta, aunque impetuosa, que actuaba honorablemente, pero bajoel influjo de una información equivocada: yo corría hacia el autobúscon mi bolso debajo del brazo (¿por qué no?) y la mujer sollozantearrodillada en el callejón estaba allí por casualidad (quizá se le habíacaído una lentilla). Si, por el contrario, resulta que Tweedledum eli-gió atizarme por su propia libre voluntad compatibilista, porque ha-cerlo satisfacía sus necesidades y le parecía bien, entonces es respon-sable en primer grado. No me impresiona el pintoresco alegatolibertario por aplicar la eximente de que si se la volviera a poner enlas mismas circunstancias un millón de veces, «con todas las condi-ciones del universo idénticas», entonces habría elegido, cada vez, ati-zarme.

7.6. Predictivismo y caos

Una máquina de Turing (sección 6.4) es un ejemplo de entidadcuya conducta se puede predecir por entero. Conocidos la tabla demáquina, la posición inicial de la cabeza, el estado inicial del indica-dor y el contenido inicial de la cinta, es posible calcular la conductade la máquina todo el tiempo. (Puesto que una máquina de Turing esuna entidad abstracta, quien predice no tiene que preocuparse por los

cortes de electricidad, fallos técnicos ni otras complicaciones delmundo real.)

Llamo  predictivismo  a la tesis de que por necesidad, la conductade cualquier sistema determinista aislado se puede, en principio, pre-decir por completo y con certeza. «Aislado» significa que «no inter-acciona causalmente con ningún otro sistema», y la expresión «en

 principio» reconoce que puede no haber nadie ni nada en el universocon la inteligencia y la memoria suficientes para hacer la predicción.La expresión «por necesidad» indica que los sistemas deterministastienen la propiedad de la predictibilidad no de forma contingente,sino necesaria, igual que es necesario y no contingente que en untriángulo euclidiano los tres ángulos internos sumen 180°.

[El concepto de que una proposición sea necesaria se explica a ve-ces en términos de «mundos posibles». La afirmación de que una

Page 233: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 233/416

Libertad 237

 proposición es necesariamente verdadera es equivalente a la afirma-ción de que no sólo es verdadera en el mundo real* sino en todomundo lógicamente posible. Se dice que una proposición es contin-

gentemente verdadera si es verdadera en el mundo real, pero falsa enal menos un mundo lógicamente posible (y contingente falsa si esfalsa en el mundo real, pero verdadera en al menos un mundo lógica-mente posible). Puede que le apetezca considerar cuáles de las si-guientes proposiciones son necesarias y cuáles contingentes (las res-

 puestas se dan en la nota 39). N ingún soltero está casado. Todoefecto tiene una causa. Todo libro tiene una última oración. La sumade dos números pares es par. Ninguna oración contingente es necesa-ria. El argumento de la habitación china no es válido.]

Hasta hace poco tiempo se consideraba evidente la tesis del predictivismo; en efecto, se consideraba a veces parte del conceptomismo de determinismo. Laplace, desde luego, era un predictivista(recordemos la cita de la sección 7.2). De la premisa de que el uni-verso es un sistema determinista, pasa inmediatamente a la conclu-sión de que su futuro es, en principio, predecible.

Como vimos en las secciones 7.1 y 7.2, uno de los argumentos co-munes contra la existencia de la libre voluntad toma como premisaesta idea de que la conducta de un sistema determinista se puede pre-decir. Se sostiene que el determinismo neurofisiológico implica queen principio nuestras elecciones, como las de Turbo Sam, se pueden

 predecir por anticipado. Quien recurra a este argumento debe tenercuidado. Un cuerpo humano no es un sistema aislado, y a menos quela argumentadora esté dispuesta a aceptar el determinismo universal,

debe reconocer que podemos interactuar con procesos no determi-nistas (según la mecánica cuántica, interactuamos con muchos proce-sos semejantes). Esta interferencia puede a veces truncar la predic-ción. Inasequible al desaliento, la argumentadora insistirá sin duda enque aun así su tesis sigue valiendo: una buena porción de nuestraselecciones se pueden predecir en principio con certeza antes de ha-cerlas. Por tanto, ¿cómo pueden ser libres?

Tradicionalmente, los compatibilistas han respondido a este argu-mento sosteniendo, con bastante verosimilitud, que una decisión

 puede a la vez ser libre y predecible3940. Ocasionalmente, todo el mundo

39 Respuestas: N, N , C, C, N, N, N.40 Véase, po r ejemplo, Flew, A., «Divine Omnipotence and Human Freedom»,

 p. 150.

Page 234: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 234/416

238 Inteligencia artificial. Una introducción filosófica

 puede predecir las elecciones libres de aquellas personas cuyo tempe-ramento nos es bien conocido: «Sabía que escogerías eso», «tenía laseguridad de que ella diría eso», etc. El hecho de que se puedan pre

decir acertadamente estas elecciones no las hace menos voluntarias.Para los compatibilistas no hay conflicto entre la predictibilidad y lalibertad. (Así, la idea de que la conducta de Turbo Sam se puede, en

 principio, predecir por anticipado no ha sido nunca una buena razón para decir que sus decisiones no son libres.)

Los compatibilistas tienen ahora otro camino para replicar a esteargumento. Algunos trabajos teóricos recientes que involucran modelos de computador de ecuaciones no lineales han mostrado —casi

sorprendentemente— que el predictivismo es falso. Es posible descri bir sistemas deterministas cuya conducta no se puede predecir, ni siquiera en principio. En torno a este descubrimiento se ha desarrollado una nueva rama de las matemáticas conocida como teoría delcaos. La teoría del caos estudia sistemas que contravienen el principiode sentido común de que una alteración relativamente pequeña en lascondiciones iniciales de un cambio o proceso sólo afecta relátiva-

mente poco al resultado. Éste es el principio del efecto proporcionado. Lo ilustra una pelota de golf que corre por la calle. Si la bolahubiera estado más a la derecha o a la izquierda por unas mierascuando fue golpeada (e iguales el resto de las condiciones del im

 pulso) esto sólo habría afectado ligeramente a la posición final de la bola (de otro modo el golf sería imposible humanamente). Los sistemas que estudia la teoría del caos no son así: muestran lo que se llamadependencia sensible de las condiciones iniciales. Para ayudar a visua

lizar un sistema semejante, imaginemos tres corchos que flotan en unrío revuelto. Inicialmente los corchos están juntos. Al cabo de unos pocos minutos dos pueden seguir juntos y el tercero haber sido arrastrado. La posición que alcanza el corcho después de un periodo dadode turbulencia depende críticamente de la posición de que parte: unadiferencia minúscula en su posición inicial puede ocasionar una grandiferencia en dónde acaba el corcho.

Los sistemas de ecuaciones que estudian los investigadores del

caos son tales que un cambio arbitrariamente pequeño en las condiciones iniciales puede producir una diferencia enorme en la conductaresultante. Estos sistemas de ecuaciones se estudian generalmente conayuda de un computador. Se estipula un conjunto de valores iniciales

 para los parámetros de la ecuación y la máquina calcula la conductaresultante del sistema. Un conjunto dado de valores iniciales produ-

Page 235: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 235/416

Libertad 239

eirá la misma conducta cada vez que se ejecute la simulación porcomputador (igual que en un sistema determinista del mundo real, lasmismas causas siempre traen los mismos efectos); pero las alteracio-

nes más menudas de estos valores pueden llevar a una conducta radi-calmente diferente. En principio, estos sistemas de ecuaciones son en-teramente predecibles: estipulamos cualquier conjunto de valoresiniciales y la conducta resultante del sistema se puede calcular.

Como las máquinas de Turing, estos sistemas matemáticos sonentidades abstractas. Imaginemos que un sistema determinista delmundo real posee la misma dependencia sensible de las condicionesiniciales. Ese sistema refuta el predictivismo: su conducta no se puede

 predecir acertadamente, ni siquiera en principio. Esto es porque el es-tado inicial del sistema —es decir, el estado del sistema a partir delcual se debe predecir la conducta futura— debe ser averiguado me-diante medición (estipular simplemente un conjunto de valores ini-ciales, como antes, no nos diría, evidentemente, nada sobre la con-ducta real del sistema). Por hipótesis el sistema es tal que un errorarbitrariamente pequeño en la descripción de su estado inicial nos lle-vará a predicciones brutalmente equivocadas sobre su conducta. Odicho de otra manera, si el sistema estuviera en uñ estado inicial dife-rente, pero arbitrariamente próximo a su estado inicial real, su con-ducta subsiguiente sería radicalmente diferente de la que tiene en larealidad. Puesto que ningún equipo de medición de este mundo res-

 ponde a diferencias arbitrariamente pequeñas (siempre habrá diferen-cias menores que la menor diferencia que un equipo dado puede re-gistrar), se sigue que la conducta del sistema no se puede predecir, ni

siquiera aproximadamente. Por lo cual el predictivismo es falso. No debe preocupar que mi argumento contra el predictivismo

aluda a un sistema determinista imaginario. El predictivismo, recor-demos, es la afirmación de que un sistema determinista aislado es pornecesidad predecible. Esta afirmación se puede refutar mostrandoque es posible que haya un sistema determinista aislado cuya con-ducta no se pueda predecir acertadamente, ni siquiera en principio, yeso es lo que ha hecho la teoría del caos.

La cuestión de si hay caos en el mundo real —de si hay procesosreales que se acomoden a las matemáticas exquisitamente sensibles dela teoría del caos— está en la actualidad bajo disputa. Los investiga-dores especulan que muchos fenómenos del mundo real son caóticos:las turbulencias en líquidos, la subida del humo, el tiempo atmosfé-rico, las economías nacionales, los sistemas ecológicos, los procesos

Page 236: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 236/416

240 Inteligencia artificial. Una introducción filosófica

metabólicos de las células, la expansión de algunas enfermedades in-fecciosas, el desencadenamiento de algunas clases de ataques cardía-cos, la transferencia de energía a través de las membranas de los ner-

vios, y aspectos de la conducta de las redes de neuronas del cerebrohumano (por nombrar unos cuantos)41. La última propuesta es espe-cialmente interesante. El determinismo neurofisiológico puede no te-ner implicaciones relativas a la predictibilidad de nuestras elecciones.

Volvamos al argumento contra el compatibilismo que era objetode esta sección. El efecto combinado de estas consideraciones es des-

 pojar al argumento de su fuerza persuasiva. Ahora que su defensoraha sido liberada de la idea de que los sistemas deterministas son nece-sariamente predecibles, no queda ningún medio para mantener su te-sis de que si el determinismo neurofisiológico es verdadero, entoncestodas (o casi) nuestras elecciones son predecibles. Puede recurrir asostener que contingentemente el cuerpo humano no contiene proce-sos caóticos, pero, puesto que no hay indicios de esto, sería un pasodesesperado, y de todas formas, el camino hacia su conclusión segui-ría bloqueado por la opinión compatibilista de que una elección puede

ser a la vez predecible y libre.

7.7. Lo inevitable

He aquí una antigua y venerable opinión sobre las implicacionesdel determinismo42:

Si el determinismo es verdadero, entonces nuestras decisiones son las conse-cuencias de acontecimientos que las preceden inmediatamente, y éstos deacontecimientos que inmediatamente los preceden, y así sucesivamente, re-trotrayéndonos al más remoto pasado. Desde luego, no depende de nosotroscómo fueron las cosas antes de nuestro nacimiento. Por lo tanto, las conse-cuencias futuras dé lo que ocurrió antes de nuestro nacimiento tampoco de-

 penden de nosotros (puesto que no podemos violar las leyes de la naturaleza,

41 Véanse Holden, A. V. (comp.), Chaos; Degn, H., Holden, A. V., y Olsen, L. F.(comps.), Chaos in Biological Systems; Gleick, J,, Chaos: Making a New Science.

42 Compárese Peter van Inwagen, «An Essay on Freewill», p. 56; Carl Ginet,«Might We Have No Choice»; James Lamb, «On a Proof of Incompatibilism», y Da-vid Wiggins, «Towards a Reasonable Libertarianism». La formulación más «a la úl-tima» es la de Van Inwagen. Para encontrar materiales relativos a la frase final del pa-saje, véase Ted Honderich, A Theory o f Determinism , p. 385 y ss.

Page 237: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 237/416

Libertad

no podemos impedir ni modificar los efectos una vez dadas las causas). Estosignifica que ninguna de nuestras decisiones o acciones depende nunca denosotros. Todo lo que hacemos es el resultado gobernado por leyes de facto

res causales que existían antes de que naciéramos. El futuro está fijado, esinevitable, está ante nosotros a la espera de que lo descubramos.

Dividiré mis comentarios a este argumento en tres grupos.

24 í

 Aceptar el determinismo

Como he indicado en la sección 7.2, el determinismo universal noestá bien visto en la ciencia moderna. Casaba cómodamente con la física del siglo XIX,  pero la revolución cuántica de los años veinte trajola idea de que los acontecimientos subatómicos no están determinados causalmente. Aún es posible aferrarse al determinismo universalcomo axioma metafísico, pero pocos lo hacen. Puede que incluso seafalsa la idea, mucho más modesta, del determinismo neurofisiológico.

Si el cerebro contiene algún tipo de aleatorizador, entonces las decisiones en que éste participe no están determinadas. Incluso aunque elaleatorizador sólo operase en las situaciones de preferencia nula, lasconsecuencias de estas decisiones aleatorias tendrían un eco en todala existencia del individuo, y eso lo libraría de la garra de hierro del

 pasado.¿Qué ocurre si el determinismo universal es falso, pero el deter-

minismo neurofisiológico es verdadero? En este caso tampoco habría

razón para decir que nuestros futuros están fijados. El ojo humano eslo bastante sensible como para permitir la detección consciente de lallegada a la retina de un único cuanto de luz43; y que se emita o no unúnico cuanto desde su fuente en un momento particular es aleatoriosegún la física moderna. Una forma efectiva de «desatar» nuestro futuro sería colocarnos en el aparato que Sakitt empleó para demostraresta notable sensibilidad del ojo y hacer con nosotros mismos uncontrato del tenor siguiente: «Si durante los próximos tres segundos

detecto una emisión de un fotón, dejo todo y me voy a la India enautostop.» No hace falta, en realidad, llegar tan lejos. En un universocuántico, el flujo diario de estímulos que llegan a nuestros órganossensoriales no está determinado por un lejano pasado, ni tampoco

43 Sakitt, B-, «Counting Every Quantum».

Page 238: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 238/416

242 Inteligencia artificial. Una introducción filosófica

nuestro futuro, por más deterministas que fueran nuestros procesos

internos. La situación es análoga al caso de un computador. Aunque

la salida de un computador está determinada por sus entradas y sus

estados internos, la salida está «fijada por el pasado» sólo si la entradatambién lo está, y en un universo que admite uñ auténtico azar esto

no es necesario.Sin embargo, un compatibilista no se puede contentar con poner

en cuestión la premisa del argumento que estamos considerando,

 pues el compatibilismo es la afirmación de que poseemos libertad de

elección aunque el determinismo universal sea verdadero. Propongoconceder al argumento su determinismo universal y objetarlo por ra-

zones lógicas.

 ¿Depende algo de mí?

La afirmación de que ninguna dé mis decisiones o acciones de-

 pende de mí me choca hasta el absurdo; más parece fruto de una pe-

sadilla sobre el determinismo que de una cuidadosa indagación filo-sófica de las consecuencias lógicas del determinismo. Imaginemos un

x'etazo infinitesimal del vasto desfile de causas y efectos que es el uni-

verso determinista: yo desayunando en el jardín. El sol es agradable yno tengo obligaciones acuciantes, así que decido quedarme un rato

tomando una segunda taza de café. Cuando sirvo el café y me de-

moro con él, ¿depende de mí lo que estoy haciendo? J. L. Austin, un

filósofo con sentido común, dijo enojado acerca de la silla que tenía

delante: «Bueno, si esto no es ver una silla real, entonces no sé qué lo es»44, Estaba ridiculizando la afirmación —otra pesadilla— de que ni

él ni nadie podría jamás saber si la cosa que tenía delante era real-

mente una silla. La idea de que nunca depende de mí lo que hago me-

rece el mismo lacónico desprecio. Si entretenerse deliberadamente

con el café no depende de mí, entonces no sé qué depende de mí. Mi

acción de servir una segunda taza fue el producto causal de mi deci-

sión de hacerlo, que a su vez fue producto de mis inclinaciones, y yo

no estaba bajo ninguna compulsión, externa o, lo que tiene la misma

importancia, interna. Decir en estas circunstancias que mi acción no

dependía de mí, y no me entretuve libremente con la segunda taza, es

44 Austin, J. L., Se?i$e and Sensibilia>p. 10.

Page 239: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 239/416

Libertad 243

un uso perverso de las palabras, incluso equívoco, igual que cuandouna persona sostiene que no sabe si hay una silla en la habitación altiempo que la ve clara como la luz del día.

Espero que ahora quede claro que el «por tanto» que aparece enel argumento anuncia uñ escandaloso non sequitur . Es verdad quenunca dependieron de mí las cosas anteriores a mi nacimiento, y esverdad que no puedo violar las leyes de la naturaleza, pero es falsoque mis acciones nunca dependan de mí, ni sean voluntarias ni libres.

 Nota técnica

Formalmente, el problema se refiere a la regla de inferencia queVan Inwagen llama ((3): NB se sigue de las premisas N (A 3 B) y N A 45. («3» es la implicación material: véase la sección 5.6). NA selee: «Es verdad que A y nadie tiene ni ha tenido ninguna elecciónacerca de si A »46. Así «N Todos los hombres son mortales» es unaabreviatura de «Es verdad que todos los hombres son mortales y na

die tiene ni ha tenido ninguna elección acerca de si todos los hombresson mortales.» En resumen, traduzcamos NA por «la verdad de A nodepende de nosotros (ni de nadie) ni nunca ha dependido».

Los compatibilistas no ven razones para aceptar la validez de laregla (p), puesto que en su opinión (P) puede llevar a veces de premisas verdaderas a conclusiones falsas, como muestra el argumento examinado.

Van Inwagen dice a sus lectores que su creencia en la validez de

(P) tiene dos orígenes. El primero es la intuición. «Cuando considerocuidadosamente (P) me parece válida... La regla (P) atrae inmediatamente al intelecto reflexivo: igual que el modus tollens,  la mente lacapta con facilidad y ve que es verdadera»47. Estas observaciones difícilmente persuaden; cuando yo considero cuidadosamente (p) me parece inválida. La segunda fuente es «el hecho de que no se me ocurren ejemplos de (P) que tengan... premisas verdaderas y una conclusión falsa» 48. Pero, como ya he indicado, supuesto el compatibilismo,el argumento examinado era precisamente un ejemplo. Tal como es-

45 Van Inwagen, P., An Essay on Freewill, pp. 93-4.46 Van Inwagen, P., ibidem, pp. 93-4.47 Van Inwagen, P., ibidem, pp. 97,124.48 Van Inwagen, P., ibidem, pp. 97-8.

Page 240: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 240/416

244 Inteligencia artificial. Una introducción filosófica

tin  las cosas, Van Inwagen se ha limitado a una petición de principiocontra el compatibilismo. Ha supuesto la validez de un principio quelleva inmediatamente a la conclusión de que el compatibilismo es

falso. Para eso podría haber supuesto la falsedad del compatibilismoy habernos ahorrado la lógica.

Sospecho que la regla (p) obtiene su plausibilidad de que es idénticatipográficamente a una regla conocida del sistema minimal T de lógicamodal, de Gódel, Feys y Von Wright49. El operador N de Van Inwagen parece satisfacer muchas de las tesis de T, por ejemplo, NA 3 A,

 NAVNB 3 N (AVB), A 3 -N -A , NA8c NB<h>N(A6¿B) (aunque, paraalgunas dudas, se puede ver Slote, M., «Selective Necessity and theFree-Will Problem»). Pero no se puede suponer que porque un operador se parezca a los de T en parte de su conducta se parezca en todo.Llamemos a un operador N débilmente modal  sólo si satisface todoslos axiomas y reglas primitivas de T salvo el axioma N (A 3 B) 3(NA 3 NB). (p) no es una regla de inferencia válida para un operadordébilmente modal (excepto en el caso de que ambas premisas de la regla sean tesis del sistema débil, un caso que aquí no nos interesa, por

que en la aplicación de Van Inwagen las premisas de (P) no son tesisde lógica modal). Van Inwagen sólo tiene derecho a usar (p) si primero muestra que su N no es débilmente modal, y no lo ha hecho.

Un ejemplo apropiado de lectura débilmente modal de NA es «Aes verdadero y o bien A es lógicamente o necesariamente verdadero,o bien A es una ley física (o se sigue lógicamente de una o más leyesfísicas, y de nada más) o entre las causas inmediatas de que ocurra Ahay un subconjunto suficiente (causalmente) en el cual mis acciones,

creencias, deseos, etc., no figuran ni como miembros ni como partede la historia causal de un miembro o, por último, yo produje A,

 pero fui obligado o compelido a hacerlo» (hace falta la alusión a unsubconjunto suficiente para abarcar los casos de sobíedeterminacióncausal). Van Inwagen debe mostrar no sólo que esta lectura deja fueraalgún ingrediente del significado de «es verdad que nadie tiene ni hatenido ninguna elección acerca de si A», sino que ese ingrediente basta para transformar N de operador débilmente modal en operadorde necesidad fuerte de T 50.

49  Véase, por ejemplo, Hughes, G. H., y Creswell, M. J., An Introduction to Modal   Logic, cap. 2.

50 Mi «Compatibilism and Modality» contiene ulteriores estudios de estos temastécnicos.

Page 241: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 241/416

Libertad 245

Vivir con un futuro fijado

Consideremos de nuevo la última frase del pasaje que estamos

examinando: «Nuestro futuro está fijado, es inevitable, está a la es- pera de que lo descubramos.» Se nos pinta como viajeros pasivos queno desempeñan ningún papel en la producción del futuro. Una ima-gen, desde luego, absurda. A. J. Ayer ha puesto el dedo en la llaga:«Mis acciones intervienen  con respecto al futuro: pues, tanto comoefectos, son causas» 51.

Quedémonos con la primera mitad de la oración: «El futuro está

fijado, es inevitable.» Si la palabra «fijado» sólo significa «determi-nado por el pasado», es sin duda una implicación del determinismoque el futuro de cada uno está fijado. Esta idea ha dado que hacer amuchas personas reflexivas desde el inicio de la filosofía. Buda reco-mendaba la meditación como una técnica para reconciliarse con elconocimiento de que la vida propia es simplemente un diminuto epi-sodio de una gran cadena fijada de causas y efectos. El pensador delsiglo XIX John Stuart Mill escribió sobre la «influencia depresiva y

 paralizadora» de su creencia en un futuro fijado, y Ted Honderich haescrito recientemente sobre lo que llama su actitud de derrota ante sucreencia de que el futuro de cada persona está fijado52. Puede que mefalte imaginación, pero no me parece deprimente la idea de vivir enun universo cuyo futuro está fijado. Y me voy a explicar:

1. En primer lugar, aunque el futuro esté fijado, eso no significaque mis acciones no sean voluntarias, que no dependan de mí, que nosean libres. Espero que mis diversos argumentos ya hayan conven-cido de eso.

2. Desde el punto de vista de Laplace, un futuro fijado es un fu-turo predecible: una inteligencia escrutadora sobrehumana podría en

 principió calcular los detalles íntimos de todos nuestros futuros. Perogracias a la teoría del caos sabemos que un futuro fijado no es necesa-riamente predecible. Puesto que en un mundo conectado causalmente

la impredictibilidad engendra impredictibilidad, la existencia de unsolo agujero de caos frustraría los cálculos laplacianos.

51 Ayer, A. J., Philosophical Essays, p. 284 (las cursivas son mías).52 Mill, J. S., Autobiography , p. 119; Honderich, T., A Theory o f Determinism, ca-

 pítulo 7.

Page 242: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 242/416

246 Inteligencia artificial. Una introducción filosófica

3. Se dice a veces que si el futuro está fijado, entonces en la vidano hay oportunidades. No estoy de acuerdo. Imaginemos que com-

 pramos un billete de lotería y luego leemos en las condiciones del an-

verso que el número ganador ha sido seleccionado por un comisarioimparcial antes de que comenzara la venta de billetes (el ejemplo es deDennett)53. «El número ganador ha sido guardado en un sobre sellado

 por el comisario y depositado en la cámara de un banco», dice el bi-llete. ¿No creeríamos que tenemos una posibilidad de ganar? Saberque el resultado de la lotería ya está determinado no afecta: seguimosteniendo una oportunidad de ganar el premio. Y si una lotería presor-teada nos ofrece la oportunidad de ganar el premio de nuestros sue-

ños, también nos la da un futuro predeterminado. En efecto, en un as- pecto importante un futuro predeterminado es más halagüeño queuna lotería presorteada. Una vez vendidos los billetes es inevitable quealguien vaya a ganar la lotería. Normalmente decimos que algo es ine-vitable si va a ocurrir, hagamos lo que hagamos54. Pero muchos de losacontecimientos de nuestro futuro ocurrirán precisamente porque ha-remos por producirlos. La inevitabilidad no consiste en eso,

4. Un futuro fijado no es un futuro en que experimentemos des-validos el flujo de los acontecimientos. Gran parte de nuestro futuroserá fruto de nuestra acción: muchas de las cosas que ocurren lo ha-cen porque —y sólo porque— decidimos que lo hagan y tomamosmedidas efectivas para originarlas. Si el determinismo es verdadero,entonces cada acontecimiento de nuestras vidas es el resultado defuerzas causales preexistentes, pero a menos que estemos esclaviza-dos o en coma, entre estas fuerzas serán eminentes nuestras propias

decisiones y acciones. Por mi parte, éste es el único poder sobre losacontecimientos que necesito.

En resumen, pues, he examinado tres géneros de libertad: la libertaddel azar, la libertad compatibilista y la libertad trascendental o «contra-causal». Es difícil entender que los seres humanos tengan libertad tras-cendental, y, de todas maneras, no me parece que valga la pena anhelaresta clase de libertad. Por lo que se refiere a los otros dos tipos de liber-

tad, los seres humanos pueden poseer el primero y sin duda poseen el se-gundo. Ambos tipos de libertad podrían existir en un artefacto real quetenga el mismo refinamiento que el robot imaginario Turbo Sam.

53 Dennett, D. C., Elbow Room> p, 120.34 Dennett, D. C., ibidem, p. 127.

Page 243: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 243/416

Capítulo 8

CONCIENCIA

¿Podría un artefacto sintetizar la joya suprema de la existencia

humana, la conciencia? Cuando Turbo Sam atisba por medio de susojos artificiales un macizo de narcisos, ¿se limitan sus circuitos elec-

irónicos a registrar características numéricas de la luz reflejada en los

 pétalos? ¿O sufre una experiencia consciente del amarillo, una sensa

ción interna a la que acaso abandonarse, como un Wordsworth de

silicio?

8.1. Nágel y el desorden

Es sobrecogedor lo poco que la ciencia contemporánea del cere

 bro dice sobre la conciencia: este tema está más allá de las fronteras

actuales del conocimiento. Durante mucho tiempo era tabú, víctima

del principio «Si no puedes explicar algo, haz como si no existiera».Esta máxima se conoce malintencionadamente como Navaja de Skinner, por B. F. Skinner, una figura prominente del movimiento con-

ductista. El conductismo dominó la psicología entre los años veinte ylos sesenta. En 1963 un investigador de la IA que pretendía hacer un

estudio de las posibilidades de la conciencia mecánica informaba me

747

Page 244: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 244/416

248 Inteligencia artificial. Una introducción filosófica

lancólicamente de que «la psicología moderna... no encuentra utilidadcientífica a la idea de una conciencia que acompañe a la conducta... elconcepto de conciencia se considera... a la vez indeseable e innecesa

rio... en la ciencia de la conducta humana» h Un autor reciente queescribe sobre la conciencia se burla de la época conductista: «Ciertamente una forma de resolver el problema de la conciencia y su lugaren la naturaleza es negar que haya conciencia»12.

Aunque a los científicos del cerebro ya no les da vergüenza usaren público la palabra «conciencia», se sigue sin saber mucho en el orden científico sobre ese fenómeno. En efecto, se sabe tan poco quequien escribe sobre el asunto se arriesga a que lo acusen de desperdiciar papel. «En mi opinión no se ha escrito nada sobre la concienciaque valga el papel de impresión gastado», dice Stuart Sutherland, director del Centro para la Investigación de la Percepción y la Cognición de la Universidad de Sussex3. A pesar de estas palabras pesimistas, me propongo hacer un breve viaje hasta las fronteras de estemisterioso territorio. Pido perdón por la vaguedad del paisaje. Miobjetivo al emprender el viaje es convencer de que, en ese poco que

conocemos, nada hay que sugiera que es imposible la conciencia delas máquinas.

 La necesidad de una taxonomía

Freud señaló en una ocasión que «no hace falta explicar lo que seentiende por consciente: está fuera de toda duda» 4. Estaba equivo

cado por completo. Eso es lo primero que tenemos que aclarar. Lomejor es no considerar la palabra «conciencia» como un término quedesigne un estado unitario, sino como una etiqueta algo vaga que seusa pax*a fenómenos no muy emparentados5. Sospecho que cuando la

1 Culbertson, J. T., The Minds o f Robots, p. 77.

2 Jaynes, J., The Origin o f Consciousness in the Breakdown o f the Bicameral Mind , p. 13.

3 Sutherland, S., «Removing the Mystery of Intelligence».4 Freud, S.,  Neue Folge der Vorlesungen zur Einfiihrung in die Psychoanalyse, pp. 76-7.

5 Es muy interesante la noticia de Kathy Wilkes según la cual la palabra «conscious-

ness»  («conciencia») no apareció en el inglés hasta medidados del siglo xvn. No había,dice, ningún término correspondiente en el griego clásico, y el chino actual parece carecer de equivalentes próximos. El adjetivo «conscious»  («consciente») existía en inglésantes del siglo XVII, pero no con su significado moderno. La palabra se usaba sólo para

Page 245: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 245/416

Conciencia 249

gente dice irreflexivamente cosas como «claro que los perros sonconscientes» o «yo sé que soy consciente», no tiene claro a qué se refiere. Como veremos, podrían referirse a varias cosas enteramente

distintas. Incluso las obras científicas o filosóficas sobre la concienciase resienten del hecho de que diferentes autores se refieren a veces acosas distintas con ese término, y no es raro que las discusiones entreexpertos se disuelvan en la incomprensión mutua.

Las tres próximas secciones proponen una breve taxonomía delgénero conciencia. La taxonomía no aspira a ser completa. Entre losvarios sentidos que no se mencionan está la conciencia como el estadode vigilia y conciencia en el sentido de sensibilidad hacia alguna dimensión particular de la existencia humana (como en las expresiones«conciencia política» o «conciencia espiritual»). Dos sentidos importantes —conciencia como sentido del yo y conciencia como un «espacio interior» metafórico— sólo se mencionan de pasada, pues creo queen buena parte caen debajo de la segunda entrada de la taxonomía.

8.2. La base borrosa

Según Julian Jaynes, «es perfectamente posible que pudiera haberexistido una raza de hombres que hablaran, juzgaran, razonaran, resolvieran problemas, que, en suma, hicieran la mayor parte de las cosas que hacemos nosotros, pero no fueran conscientes»6. Si esto nossuena estrambótico es porque probablemente estemos tomando la

 palabra «consciente» en lo que yo llamo el sentido básico. En ese sen

tido, una entidad es consciente, por definición, si, en primer lugar, escapaz de percibir el mundo a través de órganos sensoriales de algúntipo y, en segundo lugar, es capaz de realizar actividades internas dela clase mencionada en la cita: razonar, deliberar, juzgar, inventar hi

 pótesis, planear, etc.

aludir al conocimiento compartido: varías personas eran conscientes de un conoci

miento si todas lo poseían. Este sentido persiste en expresiones como «todos somosconscientes de que». (Véase Wilkes, K., «-*, yishi, duh, urn and consciousness».)6 Jaynes, J., The Origin o f Consciousness in the Breakdown o f the Bicameral Mind, 

 p. 47. Jaynes es una figura controvertida que ha llegado a afirmar que las gentes de lascivilizaciones primeras —los griegos homéricos, por ejemplo— no eran conscientes.Jaynes aporta una masa de datos históricos, arqueológicos y literarios en apoyo de su postura. A mí no me convence. Pero el estudio que hace Jaynes de la conciencia es ricoy estimulante.

Page 246: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 246/416

25 0 Inteligencia artificial. Una introducción filosófica

Jaynes sugiere que podría haber una raza de seres que cumplan

estas condiciones básicas y, no obstante, no sean conscientes, en otro

sentido de la palabra* Una buena manera de hacerse cargo con la ima-

ginación de lo que pretende Jaynes es figurarnos que conducimos porun tramo de carretera habitual mientras nos absorbemos en nuestros

 pensamientos o en una conversación7. Quien no conduzca que se

imagine caminar hasta la parada del autobús mientras tiene una enso-

ñación. De una u otra forma, la experiencia que voy a describir resul-

tará familiar para todo el mundo. Debido a la concentración en la

charla o en la ensoñación, poca información o ninguna relativa a la

carretera se filtra hasta nuestra conciencia. Pero los datos siguen flu-

yendo desde los ojos y oídos al cerebro, y aunque no nos percatemosconscientemente de hacerlo, continuamente planeamos maniobras,

 juzgamos distancias, leemos señales, cambiamos marchas, etc. Este

estado se aproxima al que debe ser el de la raza de gente sin concien-

cia de la que habla Jaynes: la información sensorial fluye, se toman

decisiones, se inventan y ejecutan planes, pero todo ello sin perca-

tarse conscientemente.

Quien le tenga apego al sentido básico de conciencia sentirá inco-modidad ante mi descripción del ejemplo del coche. Sin duda hay un

sentido claro en el que la conductora es consciente del coche que

tiene delante cuando lo sobrepasa, porque si no fuera consciente de

él, chocaría en vez de maniobrar. Quienes no aceptan el sentido bá-

sico responderán que aunque la conductora, en efecto, percibe el co-

che de delante, la percepción puede acontecer sin percatarse cons-

cientemente. Es curioso que los psicólogos en una conferencia

reciente se dividieran mitad por mitad ante la cuestión de si una con-ductora es o no consciente de la carretera en las circunstancias ex-

 puestas 8. Es de suponer que también se dividirían al 50 por 100 sobre

la cuestión de si una criatura —o máquina— que esté siempre en esteestado de «percatarse pero no percatarse» es consciente.

El desacuerdo sobre lo que llamo sentido básico del término

«consciente» es más bien un caso de diferentes preferencias verbales.

Algunas personas hallan natural aplicar la palabra «consciente» a

cualquier entidad que satisfaga las condiciones básicas, mientras que

otras personas prefieren evitar la palabra si no se dan otras condicio-

7 Jaynes, J., The Origin o f Consciousness in the Breakdown o f the Bicameral Mind, 

 p. 85.

8 Lo recoge Kathy Wilkes en yishi, duh, um, and consciousness», nota 11.

Page 247: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 247/416

Conciencia 251

nes además. No tiene objeto atribuir la razón a uno u otro grupo. Untaxonomista aplicado se limitará a incluir el sentido básico en la taxonomía de la conciencia y a añadir una nota a propósito de que algu

nas personas prefieren reservar el término «consciente» a las entidades que poseen otros rasgos adicionales, detallados en otro lugar de lataxonomía, en vez de malgastar la palabra con organismos o mecanismos que llegan hasta la línea básica, pero no van más allá. Como heindicado en el capítulo 3, yo pertenezco al segundo grupo, y no se mehace rara la idea de una raza de seres que perciben y piensan, pero noson conscientes. Sin embargo, si sus intuiciones le dicen que habríaque llamar conscientes a estos «seres básicos», no tengo nada que ob

 jetar, pues téngase en cuenta que si los seres básicos se consideranconscientes, se facilita mi tarea de argumentar que una máquina consciente es una posibilidad conceptual. Un robot pensante como TurboSam cumpliría de sobra las condiciones básicas y, por tanto, sería indiscutiblemente consciente en el sentido básico.

8.3. La conciencia como un tipo de supervisión in te rn a9

Una conductora abstraída que percibe un vehículo delante y, sinembargo, no se percata de que lo percibe, es, en algunos aspectos, semejante a una persona con visión ciega (fenómeno del que nos ocu-

9 Para conocer cinco teorías detalladas de este género, véanse Armstrong,' D. M., A  

 Materialist Theory o f the Mind , caps. 6 y 15; Dennett, D. C-, «Towards a CognitiveTheory of Consciousness»; Gazzaniga, M. $., «Brain Modularity: Towards a Philosophy of Conscious Experience»; Johnson-Laird, P. N., Mental Events, cap. 16, y TheComputer and the Mind, cap. 19; Weiskrantz, L., «Some Contributions of Neuropsychology of Vision and Memory to the Problem of Consciousness» y «Neuropsychology and the Nature of consciousness». La explicación de Jaynes se superpone un pococon las explicaciones de este tipo. «La percepción es sentir un estímulo y responderadecuadamente. Y esto puede ocurrir en un nivel no consciente, como he intentado describir al hablar de la conducción de un coche... Considero que el rasgo principal de laconciencia es el espacio mental... nos relatamos simulaciones analógicas de conductasreales... La conciencia está todo el tiempo encajando cosas en una narración... La definición connotativa básica de la conciencia es, pues, un «yo» analógico que narra en un es pacio mental funcional... hay diferentes modos de narración, como la verbal... la percep7tíva (imaginar escenas), conductual (imaginar que hacemos algo), fisiológica (supervisarnuestra fatiga o incomodidad o apetito) o musical (imaginar música)... es esta llamativaintimidad de acontecimientos encubiertos lo que denominamos conciencia» (The  Ori-

 gin o f Consciousness in the Breakdown o f the Bicameral M ind , pp. 448, 450, 452, 453).

Page 248: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 248/416

252 Inteligencia artificial. Una introducción filosófica

 paraos en la sección 3.1). Estas personas informan de la pérdida deuna parte de su campo visual después de una intervención quirúrgica,y aseguran ser incapaces de ver las luces y figuras que se proyectan

sobre la región «ciega» adquirida. Sin embargo, hay experimentosque revelan que estos pacientes perciben las luces y figuras, a pesardel hecho de que no se percatan conscientemente de elloi01112.

Éstos y otros casos sugieren que el cerebro contiene alguna clasede mecanismo de supervisión. Larry Weiskrantz, el descubridor de lavisión ciega, conjetura que cuando la persona con visión ciega percibeuna luz en su área ciega, la percepción, por alguna razón, no es supervisada, con el resultado de que la persona no puede informar de su

 presencia n. David Armstrong ha expresado la hipótesis del supervisor interno por medio de una vivida metáfora: «En la percepción, elcerebro escruta el entorno. Én la conciencia de la percepción, otro

 proceso cerebral escruta ese escrutinio»í2. No todo lo que nos ocurre cae dentro del alcance de este su

 puesto supervisor. La respuesta de las pupilas, por ejemplo, no estásupervisada13. El iris está continuamente expandiéndose o contrayén

dose, no sólo en respuesta a los cambios de iluminación, sino tambiénen respuesta al interés que el objeto de la visión despierta en el sujeto:si miramos a un extraño con las pupilas más abiertas, eso es indicación de que nos atrae. Pero no somos conscientes de dar esta señal:los procesos cerebrales que controlan la respuesta de la pupila no están supervisados. Tampoco las cosas que caen dentro del alcance delsistema son supervisadas todo el rato (como ilustra el ejemplo de laconductora); y en situaciones que exigen una celeridad de pensa

miento extrema, el supervisor puede «desentenderse» más o menoscompletamente. Los pilotos aéreos y de carreras informan a menudode que se les pone la mente en blanco en los momentos en que —como indica su conducta— toman series de decisiones a gran velocidad.

Hay teóricos que sugieren que el supervisor se alimenta del centro lingüístico del cerebro. Es el supervisor el que nos permite nues

10 Weiskrantz, L., Warrington, E. K., Sanders, M. D., y Marshall,}., «Visual Capacity in the Hemianopic Field Following a Restricted Occipital Ablation»; Weiskrantz, Blindsight.

11 Weiskrantz, L., «Some Contributions of Neuropsychology of Vision and Memory to the Problem of Consciousness», pp. 194-5.

12 Armstrong, D. M., A Materialist Theory o f the M ind , p. 94.13 Weiskrantz, L., «Some Contributions of Neuropsychology of Vision and Me

mory to the Problem of Consciousness», p. 184.

Page 249: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 249/416

Conciencia 253

tra plática interna sobre lo que estamos haciendo y por qué y cómolo hacemos. Este monólogo interno incesante, y el espejismo concomitante de un «espacio interior privado» constituye una gran parte

de nuestro sentido de mismidad. Sin duda hay otras formas de supervisión más rudimentarias que pueden darse en criaturas no lingüísticas, y es posible que esta forma de conciencia exista en todos los mamíferos complejos.

Michael Gazzaniga dio con la idea de que el cerebro contiene unmecanismo de supervisión relacionado con el lenguaje como resultado de su trabajo con pacientes que habían sufrido la sección quirúrgica del cuerpo calloso. Éste es el «puente» de fibras nerviosas queconecta los hemisferios izquierdo y derecho del cerebro. Se corta elcuerpo calloso como tratamiento de la epilepsia intratable. Ésa es laoperación de división del cerebro (aunque en realidad la operaciónno divide literalmente el cerebro: los dos hemisferios permanecen conectados en el nivel subcortical).

En términos generales, el hemisferio derecho del cerebro procesa lainformación de la mitad izquierda del campo visual, y controla el lado

izquierdo del cuerpo (los movimientos del brazo y los dedos, porejemplo), mientras que el hemisferio izquierdo se ocupa de la mitadderecha del campo visual y del lado derecho del cuerpo. En las personas diestras, el área cerebral responsable del lenguaje se localiza generalmente en el hemisferio izquierdo, y al revés en el caso de las zurdas(una explicación posible de esto es que la región responsable en la actualidad del lenguaje haya sido originariamente responsable de los gestos). Una vez cortado el cuerpo calloso, los hemisferios ya no pueden

compartir información. Esto produce unos efectos muy extraños14.En una famosa serie de experimentos, se colocó a sujetos con el

cerebro dividido frente a una pantalla de manera que lo que era proyectado en el lado derecho de la pantalla sólo era «visto» por el hemisferio izquierdo, y viceversa (figura 8.1)I5. Si se proyecta breve-

14 Hay divergencia de opiniones sobre si el sistema de supervisión de un paciente

con el cerebro dividido se ha dividido también en dos, o si el sistema ha quedado localizado por entero en un hemisferio y ya no tiene acceso a lo que pasa en el otro. Gazzaniga cree que ocurre lo último. Si fuera lo primero, la cabeza de un paciente con elcerebro dividido podría contener dos «flujos de conciencia» separados, de sólo uno delos cuales se podría informar verbalmente. Para una interesante discusión filosófica deesta posibilidad, véase Nagel, T., «Brain Bisection and the Unity of Consciousness».

t5 Gazzaniga, M. $., Bogen, J. E., y Sperry, R. W., «Observations on Visual Perception After Disconnection of the Cerebral Hemispheres in Man»; Sperry, R. W., «Some

Page 250: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 250/416

25 4 Inteligencia artificial. Una introducción filosófica

FIGURA 8.1. Cada hemisferio sólo «ve» una mitad de la pantalla

mente una figura indecorosa en el lado izquierdo de la pantalla, unsujeto diestro informa ordinariamente que no ve nada, pero puederuborizarse y reír tontamente durante unos minutos. Cuando se les

 pregunta por qué se han sonrojado, los sujetos dicen que no lo saben.Su sistema de supervisión dañado les está jugando una mala pasada.

Si se proyecta un triángulo en el lado izquierdo de la pantalla y un

círculo en el derecho, el sujeto diestro informará de que ve un círculo

Effects of Disconnecting the Cerebral Hemispheres»; Gazzaniga, M, $., y Le Doux,

J. E., The Integrated Mind .

Page 251: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 251/416

Conciencia 255

(porque, recordemos, el área responsable del lenguaje está localizadaen el hemisferio izquierdo). Pero si se le pide que dibuje lo que hayen la pantalla qon la mano izquierda, pintará un triángulo. Y si se le

 pregunta qué ha dibujado, insistirá en que ha producido un círculo(suponiendo, claro está, que no se le permita quitar los ojos de la

 pantalla y mirar).Gazzaniga propone la idea de que el sistema de supervisión del

cerebro está dispuesto a hacer conjeturas cuando no tiene seguridad:el supervisor es un intérprete activo más que un registro pasivo I6.Como dice Gazzaniga, el supervisor «construye hipótesis» sobre loque está sucediendo 17. Las conjeturas del sistema no siempre sonacertadas, como en el caso de la hipótesis de que la mano izquierdahabía dibujado un círculo. Gazzaniga describe varios casos en que elsupervisor de un paciente con el cerebro dividido es sorprendido enel acto mismo de fabricar una hipótesis falsa. En un experimento, ladisposición de la pantalla que acabo de mencionar se empleó para

 presentar una imagen de una casa rodeada por la nieve y un cocheante el hemisferio derecho de un hombre y un dibujo de una pata de

 pollo ante el hemisferio izquierdo. Se le pidió luego que mirara unafila de ocho dibujos de objetos y que empleara ambas manos paraelegir los dos mejor asociados con lo que había visto en la pantalla(figura 8.2). Con la mano izquierda señaló una pala (recordemos quela mano izquierda está controlada por el hemisferio derecho) y consu mano derecha escogió un dibujo de un pollo. Cuando se le pidióque explicara su selección, su centro del lenguaje (localizado en el hemisferio izquierdo) transmitió esta hipótesis del supervisor: «Ah,

muy sencillo. La pata de pollo va con el pollo, y hace falta una pala para limpiar la porquería de los pollos» 1S. El sistema de supervisióndañado ya no tenía acceso a todo lo que necesitaba saber para explicar correctamente ambas elecciones, pero eso no le impidió aventuraruna hipótesis.

La propuesta de Gazzaniga no es sólo que el supervisor de un cerebro dañado hará conjeturas cuando tenga que hacerlas, sino que lainterpretación y la conjetura son una parte rutinaria de la actividaddel supervisor de todo el mundo. Esto suscita la perturbadora posibi-

u Gazzaniga, M. S., «Brain Modularity: Towards a Philosophy of Conscious Ex perience».

17 Gazzaniga, M. S., ibidem, p. 219.u  Gazzaniga, M. S., ibidem, p. 223.

Page 252: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 252/416

256 Inteligencia artificial. Una introducción filosófica

Fi g u r a   8.2. Cada uno de los hemisferios escoge objetos diferentes cuando 

se pide al sujeto con el cerebro dividido qué dibujos asocia con el que ve en la pantalla. (De la figura 42 de Gazzaniga, M. S. y LeDouxE.> The Integra-

ted Mindd

lidad de que nuestras creencias sobre nuestras actividades —incluso

las más mundanas— a veces, o quizá a menudo, pueden no ser másque invenciones aderezadas por nuestro supervisor. Experimentos

como el siguiente parecen confirmar esta posibilidad. Las mujeres de

un centro comercial a las que se les pidió seleccionar un par de me-

Page 253: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 253/416

Conciencia 257

dias de nylon de un mostrador tendieron en general a elegir un pardel extremo derecho del muestrario, aunque todos los pares eranidénticos. (Es bien sabido que la elección de artículos por parte de un

comprador está muy influida por la posición espacial.) Cuando se le pidió a cada mujer que dijera por qué había elegido el par que habíaelegido, dieron explicaciones tan ilegítimas como la de la pala y el pollo: el par elegido tenía un color más bonito o estaba más nuevo, etc.

 Ninguna de las mujeres mencionó la explicación verdadera: la posición espacial 19. Si el sistema de supervisión es un fabulista inveterado,entonces la narración coherente que fluye por nuestra cabeza, cuyoobjeto es integrar nuestra vida mental, es una mezcla poco de fiar

compuesta de hechos y ficciones.Volviendo a la taxonomía, bajo los términos de la entrada que es

tamos considerando, una entidad es consciente si —y debo pedir disculpas por la vaguedad de la siguiente caracterización— posee algunaclase de sistema de alto nivel de visión de conjunto capaz de supervisar muchos de los estados y procesos cognitivos de la entidad. (Aunque, naturalmente, una alarma contraincendios autosupervisada no esconsciente. Sólo nos ocupamos de las entidades que satisfacen lascondiciones básicas.) La entidad se percata conscientemente de aquellas actividades que son supervisadas. Los estados a los que tiene acceso el supervisor pueden incluir otros además de los perceptivos:

 pueden ser supervisados deseos, necesidades, metas, temores, creencias, recuerdos, planes, y otros muchos más. En este sentido, una necesidad o un temor o un plan, etc., es consciente si la entidad forma lacreencia de que lo tiene como resultado del acceso directo del super

visor (en contraposición a inferir que lo tiene como resultado de reflexionar sobre su propia conducta)20.

¿Podría un artefacto ser consciente en este sentido? Parece claroque la respuesta es sí, al menos en principio. Hay muchas razones

 por las que una máquina como Turbo Sam podría no existir en la realidad, pero un laboratorio hipotético de robótica capaz de fabricar lodemás no tendría, supongo, dificultades especiales en procurarle unsistema de supervisión e interpretación integrado con el lenguaje.

Si alguien duda de que un robot en posesión de tal sistema sea realy verdaderamente consciente, eso quiere decir que, para esa persona,

19 Nisbett, R. E., y Wilson, T. D., «Telling More Than We Can Know: Verbal Re ports On Mental Processes», pp. 243-4.

20 Véase Armstrong, D., M., A Materialist Theory o f Mind , caps. 6 y 15.

Page 254: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 254/416

la verdadera esencia de la conciencia está en otro lugar de la taxono-mía. Sigamos.

258 Inteligencia artificial. Una introducción filosófica

8*4. La inefable sensación

Un día, cuando Turbo Sam vagabundeaba solo por los cerros yvalles que rodean el Instituto Turing, vio de pronto multitud de nar-cisos. Se quedó admirándolos un largo rato, abstraído de toda otracosa. Su color era más rico, más pleno que nada que hubiera encon-trado en el entorno del laboratorio. Grabó un facsímil de alta reso-

lución de la escena en su memoria permanente y, mucho después dehaber partido de Inglaterra, los narcisos, de vez en cuando, resplan-decen ante el ojo interior de su contemplativo sistema supervisor.

¿Qué le  parece  a Turbo Sam mirar los narcisos? Ve flores decierto color, sí, pero ¿se parece la sensación que tiene cuando los ojosartificiales escrutan, el paisaje de narcisos a la sensación que usted oyo tenemos en esas circunstancias?, ¿es su sensación visual inimagi-nablemente distinta de la nuestra? Quizá sus sensaciones visualessean tan diferentes de las nuestras como nuestras sensaciones gustati-vas lo son de las táctiles. En este punto se presenta un problema in-quietante: ¿hay alguna manera de asegurarse de que usted y yo tene-mos sensaciones visuales semejantes cuando miramos un macizo denarcisos? Decimos que los narcisos son amarillos, igual que TurboSam, pero eso no sirve. Los tres seguimos la norma de aplicar la pala-

 bra «amarillo» de las cosas que nos parecen amarillas, pero, con todo,

 podida ocurrir que las cosas amarillas tuvieran diferente apariencia para cada uno.

Al preguntar qué le parece a Turbo Sam mirar los narcisos hemosdado mucho por supuesto. Quizá a Turbo Sam no le parezca nada.Puede que Turbo Sam en realidad no «experimente» nada cuando veuna flor amarilla o pasa sus sensores gustativos sobre la menta o de-tecta el inequívoco tufillo que indica que se está sobrecalentando unade sus placas de circuitos. Ve los narcisos, se da cuenta de que los ve

(gracias a su supervisor interno), sabe que son de color amarillo do-rado en vez de amarillo verdoso o castaño, puede identificar su fami-lia botánica, y es capaz después de recordar la escena de las flores congran detalle, incluido (así se lo cuenta a sí mismo) cómo se extiende elcolor claro e intenso inundando el terreno como una neblina. Perotodo esto parece posible sin que el comercio sensorial del robot con

Page 255: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 255/416

Conciencia 259

las flores (o la mente o la placa recalentada) posean ningún «caráctersubjetivo» o «cualidad fenomenológica inmediata» o «sensibilidad»(que cada cual elija el término que prefiera)21. Al fin y al cabo, algu

nos de los sencillos robots que hoy día hay en las plantas de montaje de automóviles tienen sensores táctiles y sistemas visuales rudimentarios, pero carecen, se supone, de sensaciones con cualidadesfenomenológicas, y quizá le pase lo mismo a Turbo Sam (comparemos estas perennes preguntas infantiles: ¿sienten en realidad algo losgatos/moscas/ranas cuando malvadamente se les tira del rabo/arran-can las alas/estruja el cuerpo?).

Supongo, dicho sea de paso, que usted, como ser humano, tiene unacomprensión intuitiva de lo que estoy diciendo: la sensación del vientosoplando contra el cabello, el aspecto del cielo azul despejado, la inconfundible pero inefable sensación del calor en la piel, el carácter sordo y

 profundo de un dolor de estómago. Aunque no me apetecería tener queexplicarle a Turbo Sam qué es exactamente lo que nos tememos que lefalta. Sin duda insistiría, dolido, en que no le falta nada, que él tambiénsabe cuándo sopla el viento contra su cabello. Turing propone que tra

temos estas situaciones cediendo con cortesía si un robot nos aseguraque es consciente fenomenológicamente, a pesar de que alberguemosdudas. Y señala divertido que, al fin y al cabo, todo el mundo adoptaesta convención en sus relaciones con el resto de la humanidad22.

Una entidades consciente en el tercer y último sentido de esta taxonomía si sus episodios sensoriales tienen «propiedades sensibles».Deseosos de un término técnico con empaque, los filósofos hablangeneralmente de qualia (singular, quale) en vez de propiedades sensi

 bles, y entonces, la entrada oficial de la taxonomía dice: una entidadconsciente es una cuyas interacciones sensoriales con el mundo vangeneralmente acompañadas de qualia de alguna clase. :

¿Qué son exactamente los qualia? y ¿podría experimentarlos unamáquina? Éstas son grandes preguntas y el resto del capítulo está dedicado a ponderarlas.

21 Thomas Nagel emplea la expresión «carácter subjetivo» en este contexto en«What is it Like to Be a Bat?». Saul Kripke, en Naming and Necessity, usa la expresión«cualidad fenomenológica inmediata». Bill Lycan habla de las «propiedades sentidas»de los dolores, sensaciones de color, etc., en Consciou$ne$$>cap. 5.

22 «Computing Machinery and Intelligence», p. 446. El tratamiento que da Turingde la conciencia es algo superficial. Recomienda su Prueba como diagnóstico de la conciencia (pp. 445-7). Pero, a la vista de los argumentos del capítulo 3, la Prueba de Turing no es un indicador fiable ni siquiera de la conciencia en el sentido básico.

Page 256: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 256/416

260 Inteligencia artificial. Una introducción filosófica

8.5. En el corazón del misterio

En 1866 Thomas Huxley escribió lo siguiente en sus  Lecciones de  Fisiología Elemental: «No sabemos lo que es la conciencia, y cómo esque algo tan notable como un estado de conciencia aparece de resultas de la irritación de un tejido nervioso, es tan inexplicable como laaparición del Genio cuando Aladino frotó su lámpara» 23. Ha pasadomás de un siglo y el misterio permanece sin resolver. Aún nos faltauna concepción firme de la relación entre los qualia  y la actividadeléctrica y química que acontece en el cerebro y en el sistema nervioso. Algunos científicos y filósofos creen que los qualia  son cosasúnicas y peculiares que siempre estarán fuera del alcance de la cienciaobjetiva. Es fama que Einstein dijo que la ciencia no nos puede explicar el sabor de una sopa24. Dentro de unas pocas páginas examinarécon cierto detalle esta línea de pensamiento. Pero antes —sin que seaajena la intención de crear una cierta aura de mistificación—■deseodesacreditar un par de intentos de rechazar la idea de que haya algoexclusivo y desconcertante en los qualia.

 Reacción despectiva

«Me parece que todo el “misterio” es simplemente el resultado decoger el rábano por las hojas. Las llamadas "propiedades sensibles”no están en absoluto en el cerebro o la mente. Están en el mundo,como propiedades de los objetos que percibimos. El queso es amari

llo, la hierba es verde, el azúcar es dulce, la sopa es salada. Estas pro piedades no presentan ningún problema especial. Cualquier broma-tólogo puede decirnos lo que le da el sabor a un plato de sopa.»

Una manera sencilla de ver dónde está el fallo de estas observaciones es considerar el dolor. Como bien sabemos, pinchar los tejidoshumanos con un alfiler va acompañado de propiedades «sensibles»distintivas, y es difícil considerarlas como propiedades del alfiler mismo. Los qualia  los causa el alfiler en nosotros. Igual ocurrecon el gusto (y las otras modalidades sensoriales), como ilustrará unejemplo25.

23 Huxley, T. H.,  Lessons in Elementary Physiology, p. 193.24 Véase Dennett, D. C., «Quining Qualia», p. 48.25 El ejemplo es de Bennett, J., «Substance, Reality and Primary Qualities», p. 9.

Page 257: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 257/416

Conciencia 261

La fenoltiourea es una sustancia que tiene un sabor intensamenteamargo para el 75 por 100 de las personas y es más o menos insípida

 para el resto. ¿Es amarga la fenoltiourea? Ésta es una pregunta ex-

traña para quien cree ingenuamente que un enunciado como «el azú-car es dulce» dice algo acerca del azúcar mismo, en contraposición alefecto que tiene en nosotros el azúcar. Pero hay algo peor. La res-

 puesta de una persona a la fenoltiourea está determinada genética-mente. Eso significa que si a quienes la encuentran amarga se les im-

 pide —imaginémoslo— tener descendientes, la sustancia se volveráinsípida para todo el mundo en quizá una docena de generaciones(igual que los ojos azules se podrían extinguir si a las personas conojos azules de cada generación se les impidiera reproducirse). De estemodo, la fenoltiourea pasaría de ser una sustancia que le sabe amargaa la mayoría de la gente a ser una sustancia universalmente insípida,todo ello sin ninguna alteración en las propiedades químicas o físicasde la fenoltiourea.

El amargor está en el continente, no en lo contenido. Los qualia no están «en el mundo», sino que son causados en nosotros por obje-

tos externos que interactúan con nuestro aparato sensorial.

Otra reacción despectiva

«Mira, en esto de los qualia no hay ningún gran misterio. No sonmás que estados o procesos que tienen lugar en el cerebro. Cierto,aún no sabemos con precisión qué estados o procesos constituyen los

qualia, pero tampoco sabemos cómo el cerebro reconoce las caras,hace aritmética o genera las oraciones que emitimos. Aún quedan porresolver muchas cuestiones en la ciencia del cerebro. Todas son fasci-nantes, pero ninguna merece el apelativo de misterio sin solución.Todo eso de que los qualia  sean el enigma último del universo es pura exageración.»

 Réplica ofendida

«¿Cómo puede consistir sentir un dolor en el paso de iones a travésde las membranas de las células del cerebro? ¿Cómo pueden la sensaciónde azul o el olor a jazmín estar formados por la actividad eléctrica de lacorteza cerebral? ¿O la sensación de sed ser un incremento en la concen-

Page 258: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 258/416

262 Inteligencia artificial. Una introducción filosófica

tración de aminoácidos en el hipotálamo? ¿O el placer del orgasmo seruno y lo mismo que una reacción química en una pequeña porción detejidos a mitad de camino entre las puntas de las orejas? Y, sin embargo,

la opinión anterior asegura con toda tranquililidad que los qualia son literalmente procesos cerebrales como éstos. Nunca he oído nada tan increíble. Y, de paso, no confundamos lo que dice mi antagonista con laafirmación mucho más débil de que es la actividad electroquímica delcerebro lo que produce o causa los qualia asociados con el orgasmo, lased, etc. Es enteramente plausible decir que acariciar a un gato causa queronronee, pero enteramente implausible decir que el ronroneo es la caricia. X es Y es muy diferente de X está causado por Y.»

La incongruencia que implica la idea de que los qualia son procesoscerebrales es, pienso, muy llamativa. Es una idea no menos extraña que elabsurdo de que la nota do pueda ser literalmente un pez: en ambos casos

 parece no haber la menor semejanza entre los elementos yuxtapuestos.Sin embargo, como he dicho ya varias veces, la rareza no es necesariamente indicadora de falsedad, y podría resultar que —sea como fuere—nuestros qualia no sean sino acontecimientos físicos del cerebro. (La his

toria está llena de precedentes: el rayo, esa fuerza ultraterrena de los dioses, al final resultó no ser sino una mundana descarga de electricidad.) Personalmente, espero sin duda que así acabe esto. La idea de que los qualia sean presencias etéreas, no físicas, que permean mi sistema nervioso central como fantasmas entrometidos es, por decir lo menos, inquietante26.Pero, al contrario, sólo quienes padezcan una grave ceguera para los misterios sostendrán que aquí no hay misterio. Lo hay, y gordo27.

Quienes piensan que nuestros qualia resultarán no ser más que acon

tecimientos biofísicos del cerebro son fisicalistas. El bando contrario, dequienes piensan que los qualia trascienden lo biofísico, se conocen comoantifisicalistas. Los anti-fisicalistas reciben también el nombre dedualistas, porque creen que los seres humanos son un compuesto de doscosas radicalmente diferentes, la materia y la mente; por un lado está nuestro aspecto biofísico y por otro está esa corriente florida y rumorosa dequalia irreductiblemente mentales.28 Por su parte, los fisicalistas creen que

26 El neurocientífico John Eccles monta una defensa de esta idea de resonanciasocultas en The Human M ystery, cap. 10.

27 Un intento animoso de provocar ceguera para los misterios es el de Daniel Dennett, Consciousness Explained .

28 El llamado dualismo de las sustancias mantiene que los seres humanos están, literalmente, compuestos por dos sustancias distintas, «la materia física» y la «materia

Page 259: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 259/416

Conciencia 263

los seres humanos son de naturaleza completamente biofísica, y la nociónde que poseemos mentes no físicas es anatema. El profesor Ramsey, un personaje de A l Faro,- de Virginia Wolf, dio una versión agradablemente

concisa del fisicalismo: «Lamente, Señor, es carne»29.Según la visión que los fisicalistas tienen del futuro, el avance progre

sivo de las neurociencias acabará por atrapar los qualia, con lo que se lesdespojará abruptamente de sus misterios. Y de acuerdo con los antifisica-listas seguiremos sin saber más de los qualia  incluso cuando las neurociencias estén completas y se sepa todo lo que haya que saber sobre el cerebro biofísico. «Dime todas las cosas físicas que hay que saber sobre lo

que ocurre en un cerebro vivo», dice un antifisicalista destacado, «y... nome habrás dicho nada sobre lo penoso de los dolores, lo picajoso de los picores, las lanzadas de los celos, ni sobre la experiencia característica de sa

 borear un limón, oler una rosa, oír un estruendo o ver el cielo»30.En las dos próximas secciones examinaré dos argumentos propuestos

recientemente en apoyo de la afirmación de que los qualia no son de naturaleza física. El primero se debe a Thomas Nagel y el segundo a FrankJackson. Los argumentos son interesantes, pero, en mi opinión, no con

vencen.

8.6.  ¿A  qué se parece ser un murciélago?31•7 

Los murciélagos perciben el mundo externo principalmente mediante sonar o ecolocalización32. El murciélago emite cuando vuelarápidos chillidos de alta frecuencia, que los objetos circundantes de

mental». Es una posición un poco anticuada, y se asocia en especial al filósofo del siglo XVII René Descartes (por eso se denomina a veces dualismo cartesiano). La mayor

 parte de los dualistas modernos son dualistas de las propiedades: están de acuerdo conlos fisicalistas en que sólo hay un tipo de materia —los seres humanos no son bocadillos—, pero mantienen que esta materia tiene dos tipos radicalmente distintos de pro piedades, biofísicas y «sentidas».

29 Virginia Wolf, To the Lighthouse, Hogarth Press, 1927, y Colin Gregg FilmsLtd., 1982. El libro contiene pocos diálogos. El guionista Hugh Stoddart basó las opi

niones filosóficas de Ramsey en ideas del padre de Wolf (comunicación privada). Marvin Minsky es famoso por su ocurrencia parecida de que la mente es una «máquina decarne».

30 Jackson, F. C., «Epiphenomenal Qualia», p. 127.31 Nagel, T., «What is it Like to be a Bat?». Llama la atención que, a partir de sus

escritos, no se sabe bien si Nagel es fisicalista o antifisicalista. Sin embargo, su argumento sobre los murciélagos tiene claramente una significación antifisicalista.

32  Para ser precisos, los microquirópteros.

Page 260: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 260/416

264 Inteligencia artificial. Una introducción filosófica

vuelven reflejados. En el cerebro del murciélago hay mecanismos es-

 pecializados que correlacionan los chillidos emitidos con los ecos de

retorno, lo que permite al murciélago hacer discriminaciones detalla-

das de distancia, tamaño, forma, movimiento y textura. Desde un punto de vista humano, el murciélago es una criatura fundamental-mente ajena. Siente el mundo externo por medio de un sistema per-

ceptivo radicalmente distinto de todo lo que poseemos.

 Nagel comienza su argumentación suponiendo que los murciéla-

gos son conscientes en el tercer sentido de la taxonomía. Explica:

«He elegido los murciélagos en lugar de las avispas o los rodaballos

 porque si uno desciende demasiado por el árbol filogenético, la gente

deja poco a poco de creer que haya experiencia de ningún género»33.Estoy seguro de que algunas personas tienen sus dudas también so-

 bre los murciélagos, pero por mor del argumento, concedamos el su-

 puesto de Nagel. A continuación nos invita e imaginar a qué se puede

 parecer la experiencia que un murciélago tiene del mundo. Nagel está

convencido de que no podemos. «El sonar del murciélago, aunque es

claramente una forma de percepción, no se asemeja en su operación a

ninguno de nuestros sentidos, y no hay ninguna razón para suponerque se parezca subjetivamente a nada de lo que experimentamos o

imaginamos» 34. Cuando intentamos imaginar a qué se parece ser un

murciélago no tenemos más que nuestras propias experiencias como

material básico, y éstas, nos recuerda Nagel, están irremediablemente

ligadas a nuestro propio y rígido punto de vista. Los horizontes denuestra imaginación están firmemente trazados por el carácter de

nuestro aparato perceptivo. «Cuando contemplamos los murciélagos,

estamos en una posición semejante a la de murciélagos inteligentes omarcianos que intentaran formarse una concepción de a qué se parece

ser uno de nosotros. La estructura de sus propias mentes les podría

imposibilitar tener éxito» 35. No podemos imaginar a qué se parece

ser un murciélago, ¿o sí?

Después Nagel cambia el foco del argumento, y pasa de los qualia 

del murciélago al cerebro del murciélago. La biología del cerebro del

murciélago, de su sistema nervioso y su aparato perceptivo «es un

dominio de hechos objetivos por excelencia —la clase de cosas que

 pueden observar y entender... individuos que tengan sistemas percep-

33 Nagel, T., «What is it Like to be a Bat?», p. 438.

34 Nagel, T., ibidem , p. 438.

35 Nagel, T., ibidem , p. 440.

Page 261: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 261/416

Conciencia 265

tivos diferentes», escribe Nagel. «No hay obstáculos comparables dela imaginación para que los científicos humanos adquieran conocimientos relativos a la neurofisiología del murciélago, y los murciéla

gos inteligentes o los marcianos podrían aprender más del cerebrohumano de lo que nunca seremos capaces»36. En suma, los hechos relativos al funcionamiento del cerebro del murciélago caen bajo el dominio público, y, en principio, nada se interpone en el camino paradescubrir todo lo necesario sobre las actividades neurofisiológicas delos murciélagos. Sin embargo, los hechos relativos a a qué se pareceser una criatura que percibe el mundo por medio del sonar sólo sonaccesibles desde el punto de vista subjetivo del murciélago. Ningúnacervo de datos neurofisiológicos objetivos puede ayudar a nuestracoja imaginación a formarse una concepción de a qué se parecen lasexperiencias subjetivas de un murciélago, dice Nagel. Y concluye quela neurociencia objetiva es inherentemente incapaz de dar cuenta delos qualia37. Su reino es el territorio de los hechos accesibles públicamente acerca de lo que ocurre en el cerebro de una criatura, mientrasque los hechos concernientes a los qualia, puesto que son subjetivos,

son de naturaleza radicalmente distinta38.Se pueden elevar dos críticas contra este argumento, una menor yotra importante. Primero la menor: ¿tiene derecho Nagel a estar tanseguro de que datos neurofisiológicos futuros no ofrecerán una concepción mejor de a qué se parece ser un murciélago? El siguienteejemplo sugiere que n o 39. Desdé el punto de vista neurofisiológico,los mecanismos gustativos de los humanos son bastante similares alos de los gatos y las ratas. Una pequeña diferencia, descubierta gra

cias a la representación de la actividad eléctrica de las rutas neurona-

36 Nagel, T., «What is it Like to be a Bat?», p. 442.37 Nagel desarrolla más este tema en los capítulos II y I II de The View From 

 Nowhere.

38 Espero que mi exposición haya hecho justicia al argumento de Nagel. En miopinión, hay críticos que han entendido mal el argumento, en parte por su deseo dehacerlo más claro de lo que es, y en parte porque han pasado por alto que la preocupa

ción principal de Nagel es la limitación de lo que podemos imaginar  acerca de lo que parecen las cosas desde el punto de vista de un murciélago. En especial, no encuentroen el artículo de Nagel indicios de que cometa la falacia de aplicar la ley de Leibniz enun contexto referencialmente opaco (véanse, por ejemplo, Churchland, P. S., Neurop- hilosophy, pp. 327-30; Churchland, P. M., «Reduction, Qualia, and the Direct Intros pection of Brain States», pp. 19-22; Lycan, W. G., Consciousness > pp. 75-8).

39 El ejemplo es dé Paul Churchland, «Some Reductive Strategies in Cognitive Neurobiology», p. 302.

Page 262: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 262/416

266 Inteligencia artificial. Una introducción filosófica

les pertinentes, es que en ciertos aspectos nuestro mecanismo es me-nos sensible que el del gato y más sensible que el de la rata. Las va-riaciones de sensibilidad son particularmente señaladas en el ex-

tremo amargo del «espectro gustativo». Quizá, pues, una sustanciaque le sabe ligeramente amarga a un humano no le sabrá amarga a larata y le sabrá moderadamente amarga a un gato. Puede que la saca-rina, que tiene un sabor remotamente amargo para los seres huma-nos, tenga el mismo sabor que el azúcar para la menos sensible rata ysea inaceptablemente amarga para el más sensible gato. Éstas son es-

 peculaciones sobre los qualia de la rata y del gato: un pequeño des-cubrimiento relativo a la neurofisiología del gusto nos ha permitidocaptar con la imaginación un poco mejor cómo pueden ser las cosas

 para las ratas y los gatos (resulta interesante que los gatos comanazúcar pero no sacarina, mientras que las ratas comen ambos indis-criminadamente). Admito que el sabor de la sacarina en contraposi-ción al del azúcar sólo es una puntada en todo el telar de la experien-cia, pero si un descubrimiento neurofisiológico.tan modesto comoéste puede dai'le un empujoncito a la imaginación, cómo saber el

efecto que los avances neurofisiológicos de los próximos cuatro ocinco siglos podrán tener sobre nuestra capacidad de imaginar todolo que se refiere al gato, la rata o el murciélago. Puede que Nagel sehaya precipitado.

La segunda crítica es muy directa. Nagel no ha apuntado bien consu argumento. Los fisicalistas no tienen por qué rechazar su afirma-ción de que nunca podremos imaginar completamente a qué se pa-rece ser un murciélago. La teoría que defienden se refiere a la natura-

leza de los qualia, no a las capacidades de la imaginación humana* Elfisicalismo es la afirmación de que los murciélagos —como todos losdemás organismos— son entidades puramente biofísicas. Esta afir-mación no compromete de ningún modo a los fisicalistas a creer que,si conociéramos todo lo que hay que conocer acerca de la neurofisio-logía del cerebro y del aparato perceptivo del murciélago, entoncesseríamos capaces de imaginar a qué se parece ser una criatura con eseaparato perceptivo. Naturalmente, los seres humanos tendrán dificul-tades para imaginar las experiencias perceptivas de una criatura quefundamentalmente percibe el mundo por ecolocalización, pero, ¿yqué? Es difícil que esto baste para demostrar que los murciélagos no

 pueden ser de naturaleza puramente biofísica. Como el profesorRamsay de Virginia Wolf podría expresarlo: el hecho de que una má-quina de carne sea incapaz de imaginar el mundo desde el punto de

Page 263: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 263/416

Conciencia 267

vista de otra máquina de carne con un aparato perceptivo radicalmente diferente, difícilmente se puede tomar como prueba de que lasegunda no es una máquina de carne.

8.7, Lo que María no sabe

El argumento de Frank Jackson es en algunos aspectos una versión purificada del de Nagel40. Busca una conclusión semejante —que el fi-sicalismo se deja algo fuera— pero elige una vía que evita la infructuosa excursión de Nagel por el tema de si podemos imaginar a qué se

 parece ser una criatura de especie diferente.María, la heroína del argumento, es congénitamente insensible al

dolor41. Las personas que padecen esta afección sencillamente nosienten dolor y, en consecuencia, son proclives a ocasionarse gravesdaños. María acaba tullida por forzar excesivamente sus articulaciones. Sin embargo, gracias a atentos cuidados, sobrevive a su infancia.En la universidad consigue matrícula de honor en filosofía y en

neurociencias, y se convierte —paradójicamente— en una de las principales expertas del mundo en la neurofisiología del dolor. Puestoque vive en el cuarto milenio de nuestra era, tiene acceso a un cuerpode conocimientos más o menos completos relativos al cerebro y sistema nervioso humanos. Lo que María no sabe de la neurofisiologíadel dolor no vale la pena saberlo. Pero, desde luego, nunca ha experimentado el dolor, y a la edad .de cuarenta años la curiosidad la inducea someterse a un tratamiento carísimo que repara su química cerebral.

Un mes después está tendida en una camilla quirúrgica, con una ex presión expectante en la cara mientras su neurofarmacéutica se dis pone a clavarle un alfiler esterilizado en la nalga. Un chillido triunfante sale de sus labios y se felicita de haber conocido por fin el

dolor.Jackson concluye, a partir de esta puesta en escena, que el fisi-

calismo es falso. Antes del tratamiento, María sabía todos los he

40 Jackson, F. C., «Epiphenomenal Qualia», Jackson reconoce que su argumentodebe mucho al de Nagel (nota 10).

41 La presentación de Jackson se refiere a la visión del color más que al dolor. Losdetalles no son esenciales. Como él dice, el argumento «se podría desarrollar para elgusto, el oído, las sensaciones corporales, y en general para los diversos estados mentales que se dice que poseen sensaciones puras, rasgos fenomenológicos o qualia, comocon diversos nombres se les alude» («Epiphenomenal Qualia », p. 130).

Page 264: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 264/416

268 Inteligencia artificial. Una introducción filosófica

chos biofísicos concernientes al dolor, pero cuando el alfiler pinchó su carne experimentó algo nuevo. Por tanto, en lo que se refiere al dolor, hay algo por saber además de lo que puedan decir los

hechos biofísicos. «Se sigue», dice Jackson, «que el fisicalismo dejaalgo fuera»42. El dolor no puede ser un fenómeno puramente biofí-sico.

El argumento de Jackson es ingenioso, pero yo sigo sin dejarmeconvencer. Es verdad que antes del tratamiento, el conocimiento deldolor por parte de María era el de un observador externo, mientrasque después del tratamiento, el dolor se convierte en algo con lo queestá familiarizada de primera mano; pero de ahí no se sigue que el fisicalismo sea falso, como intentaré demostrar.

Consideremos un caso paralelo. Van Planck, un eminente jardinero holandés, conoce hasta el menor hecho relativo al árbol kauri de

 Nueva Zelanda. Pero Van Planck, que tiene fobia a volar, nunca havisitado Nueva Zelanda para observar de primera mano los objetosde su conocimiento. Cuando tiene sesenta años encuentra por fintiempo para viajar por mar, y en los bosques de Northland se queda

impresionado ante su primer encuentro personal con un kauri de tamaño natural. ¿Era incompleto el conocimiento previo que tenía VanPlanck del kauri? En un sentido sí y en otro sentido no. Hace faltauna distinción semántica para describir con precisión el caso. La distinción está comprimida en la frase «no la conozco, pero conozcomuchas cosas de ella». En el primer sentido no conocemos a alguienhasta que lo hemos encontrado; en el segundo sentido podemos conocer una cantidad ilimitada de cosas sobre alguien a quien nunca he

mos visto. Por un lado hay conocimiento en el sentido de la familiari-zación personal, y en el otro hay conocimiento en el sentido de

 poseer hechos43. Antes de visitar Nueva Zelanda, Van Planck conocíatodos los hechos que vale la pena saber sobre los kauris. Su conocimiento fáctico de ellos era esencialmente completo. Lo que suministró su visita no fue más conocimiento en el sentido fáctico, sino fa-

42 Jackson, F. C , «Epiphenomenal Qualia», p. 129. También p. 130.43 Esta distinción la trazó Bertrand Russell en 1912. Empleaba los términos «conocimiento por familiarización» y «conocimiento de verdades» (Thé Problems o f Philo-

 sophy, capítulo 5). Diversos autores han usado de formas diferentes la distinción contra el argumento de Jackson, en especial Paul Churchland («Reduction, Qualia, andthe Direct Instrospection of Brain States»), David Lewis («Postcript on Mad Pain andMartian Pain») y Laurence Nemirow («Review of Thomas Nagel’s  Mental Ques-

tions»).

Page 265: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 265/416

Conciencia 269

miliarización personal con los objetos de un conocimiento fáctico yatotal.

Armado con esta distinción, el fisicalista puede describir la ilumi

nación de María de forma enteramente consistente con la teoría deque el dolor es un fenómeno puramente biofísico. En realidad lamisma María es una fisicalista (sin saberlo Jackson), de modo que oigamos la historia de su propia boca.

«Sé que algunos filósofos del siglo XX consideran mi caso una refutación delfisicalismo. Temo que no puedo estar de acuerdo. Nunca he dudado de queel dolor fuera de naturaleza puramente biofísica, y los acontecimientos re

cientes no han hecho nada para cambiar mi opinión. Estoy de acuerdo, desdeluego, en que antes de mi tratamiento, el dolor me era desconocido en el sentido de que nunca lo había sufrido. Nunca lo he visto personalmente, por asídecir. Pero insisto en que, no obstante, mi conocimiento fáctico del dolor eracompleto. Sabía todo lo que hay que saber sobre los procesos neuroquímicosque constituyen el dolor, pero, debido a mi anormalidad congénita, esos procesos nunca habían tenido lugar dentro de mí. El tratamiento que recibí reguló la química de mi cerebro y de mi sistema nervioso, con el resultado de

que ahora puedo albergar esos procesos en mi cuerpo.»Por tanto, el profesor Jackson tiene razón al mantener que mi conocimiento previo del dolor dejaba algo fuera. El ingrediente que faltaba era elconocimiento en el sentido de familiarización personal. Sin embargo,, ciertamente de esto no, se sigue que el fisicalismo sea falso. Sufrir dolor no es nadamás ni menos que albergar un proceso biofísico, nada en absoluto.

»Me gustaría citar al profesor Nagel; dice: "Si los procesos mentales sonefectivamente procesos físicos, entonces hay algo a lo que se parece, intrínsecamente, sufrir ciertos procesos físicos” 44. Es verdad. El dolor es un proceso puramente biofísico, y ciertamente se parece a algo albergar ese proceso en elsistema nervioso de uno. Lo que me llamó la atención fue el comentario de Nagel acerca de este hecho. Continúa: "En qué consiste que tal cosa .ocurrasigue siendo un misterio... el fisicalismo es una posición que no puedo entender porque en la actualidad no tenemos formada una concepción de cómo podría ser verdadero” 45. Estas observaciones, honestas y agonísticas, me parecen fascinantes, incluso conmovedoras. Me resulta tan difícil imaginar cuándesconcertante ha debido parecer la conciencia en su era. Gracias a Dios

llegó la ilustración, aunque no, me temo, en el curso de sus vidas. Los hom bres y mujeres del siglo XX deben consolarse con la idea de que sería avaricioso querer sondear ellos solos todos los misterios de la vida.»

44 Nagel, T., «What is it Like to be a Bat?», pp. 445-6. La cursiva es mía.45 Nagel, T., ibidem, p. 446.

Page 266: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 266/416

270 Inteligencia artificial. Una introducción filosófica

En un artículo posterior, Jackson retoca ligeramente su argumento 46. Insiste en que María aprende algo acerca de los demás como resultado de su tratamiento. «El problema del fisicalismo es que... ella

se dará cuenta de cuán pobre ha sido su concepción de la vida mentalde los demás durante todo ese tiempo... Durante todo el tiempo, susexperiencias... tenían un rasgo muy sobresaliente que para ella ha estado oculto»47. El argumento revisado transcurre así. Puesto queMaría aprende algo acerca de la gente como resultado de su tratamiento, hay algo que ella no conocía sobre la gente antes del tratamiento; sin embargo (por hipótesis), antes del tratamiento María conocía todo lo que, desde un punto de vista físico, hay que conoceracerca de las demás personas. Por tanto, el fisicalismo deja algofuera48. Pero la respuesta de María a esto es sencilla: aprendió a quése parece albergar cierto proceso biofísico, el dolor, en su propio sistema nervioso, y así, por extensión, también aprendió a qué se parece que las personas alberguen este proceso biofísico (ella tiene quesuponer aquí que nó «se está permitiendo una generalización ilegítima de un caso a otro», pero Jackson parece concederle tranquila

mente ese supuesto)49. También ahora se puede describir la iluminación de María de una manera perfectamente compatible con la verdaddel fisicalismo.

8.8* Se unen los cabos

Por lo que yo sé, no hay argumentos convincentes contra el fisica

lismo, ni tampoco a su favor. Aquí está la teoría pendiente, destilandomisterio, sostenida sólo por la fe. Pero quienes nos consideramos fisi-calistas apreciamos en la teoría cierta plausibilidad confortadora y terrenal. La alternativa antifisicalista —una dimensión mental irreducti ble que sobresale de un universo, en lo demás físico, como un dedodolorido— nos desagrada. Ofende nuestra expectativa de que la naturaleza sea armónica e integrada. Pero la verdad es que, cuando llegamos a los qualia., nadie sabe.

46 Jackson, F. C., «What Mary Didn’t Know», continuación de «EpiphenomenalQualia».

47 Jackson, F. C., ibidem, pp. 292-3.48 Jackson, F. C., ibidem, p. 293.49 Jackson, F. C., ibidem, p. 294.

Page 267: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 267/416

Conciencia 271

Quedan por esbozar las implicaciones de todo esto para la con-

ciencia de las máquinas. Si el antifisicalismo es verdadero, entonces

 puede o puede que no sea posible que un robot experimente qualia. 

Habría que saber mucho más antes de poder dar una respuesta defi-

nitiva. Si un cerebro natural puede generar propiedades no físicas, en-

tonces, ¿por qué no también un cerebro artificial? Por otro lado, si el

fisicalismo es verdadero, entonces la conciencia es un fenómeno fí-

sico, en cuyo caso no se puede negar que un artefacto apropiado

 pueda experimentar qualia.  Tampoco hay en la actualidad ningunarazón para pensar que la «fisiología» de tales artefactos se tendría que

 parecer a la nuestra50. Es mero chauvinismo suponer a priori que losqualia  son exclusivos de nuestro tipo de tejidos. Recordemos la ex-

traterrestre rellena de gelatina del capítulo 3. Por hipótesis, nada de lo

que ocurre en sus tejidos tiene mucha semejanza con lo que ocurre

en los nuestros, pero, con todo, podría llevar una existencia poblada

de qualia.

En cualquiera de los dos casos —que el fisicalismo sea verdadero

o que sea falso— espero que me concedan que he establecido la afir-

mación anunciada en los capítulos 3 y 7. A pesar de las opiniones delos escépticos de bar, está lejos de ser evidente que un artefacto no

 pueda tener conciencia.

50 Véanse David Lewis, «Mad Pain and Martian Pain»; Hilary Putnam, «Philo-

sophy and our Mental Life» y «The Mental Life of Some Machines».

Page 268: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 268/416

Capítulo 9

¿SOMOS COMPUTADORES?

En su mayor parte, los hombres y mujeres de la época victoriana

creían que eran espíritus incorpóreos cuyos parientes no humanos

más próximos eran los ángeles. Un siglo después, un inmisericorderecorrido por las teorías de Darwin, Marx y Freud nos ha dejado una

incertidumbre colectiva sobre qué somos, y cada vez más personas

 parecen dispuestas a aceptar que nuestros parientes más próximos pueden no ser los ángeles, sino los productos de la IBM y la DigitalEquipment Corporation. Algunos ciudadanos decididos de finalesdel siglo XX declaran abiertamente que son computadores y otros

muchos sospechan calladamente que pudieran serlo. Incluso quienes

desprecian esa idea pueden a veces ser sorprendidos jugueteando con

ella bajo expresiones como «lo peor de un divorcio es reprogramarte

 para vivir solo» y «estamos programados por la sociedad».

Esta nueva imagen de la mente humana como un computador ha

echado raíces en la cultura popular con una fuerza asombrosa. Mi propósito es a la vez desenmascarar y aplaudir la nueva imagen.

Como he explicado, la imagen goza de una popularidad que sobre

 pasa de largo los indicios científicos; en realidad no hay por ahora

ningún indicio firme en favor o en contra de la teoría de que el cere

 bro humano sea un computador. Por otro lado, me parece que in-

272

Page 269: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 269/416

¿Somos computadores? 273

cluso aunque la teoría resultara finalmente falsa en los detalles, su es- píritu es acertado. Si no somos computadores, entonces somos má-quinas físicas con alguna otra descripción. La imagen de la naturaleza

humana del siglo pasado nos hacía andar incómodamente por dos te-rrenos a la vez, y nos hemos librado de ella.

9,1. La hipótesis fuerte del sistema de símbolos

La hipótesis del sistema de símbolos es la conjetura de que en

 principio es posible construir un sistema universal de símbolos que piense (sección 4.6). La hipótesis fuerte del sistema de símbolos, porotro lado, es la conjetura de que sólo los sistemas universales de sím-

 bolos son capaces de pensar (sección 4.7). Según esta hipótesis, se de-mostrará que cualquier cosa con capacidad de pensar —y el cerebrohumano en particular— es, en último análisis, un sistema universal desímbolos. Si la hipótesis fuerte del sistema de símbolos es verdadera,la IA tiene que ser posible, al menos en principio, por la sencilla ra-

zón de que el cerebro humano mismo es literalmente un computador.La hipótesis fuerte del sistema de símbolos (HFSS) se denomina

así porque hace una afirmación más fuerte que la hipótesis del sis-tema de símbolos (HSS). Es posible que la HSS sea verdadera y su

 pariente más fuerte sea falsa. Los zepelines y las aves comparten lacapacidad de volar, pero no se sigue qué las aves sean zepelineses igualmente los computadores y los cerebros acaso compartan lacapacidad de pensar (con lo que la HSS sería verdadera) sin que los

cerebros fueran computadores (con lo que la HFSS sería falsa). El ce-rebro pensante podría operar de manera por entero diferente del ma-nipulador de símbolos pensante.

He aquí un esbozo de la mente humana dibujado por ZenonPylyshyn, defensor aventajado de la HFSS h «La idea de que el pro-cesamiento mental es computación es, en efecto, una hipótesis empí-rica seria... La mente está... de continuo ocupada en buscar, recordar,razonar rápida, y en gran medida, inconscientemente, y en general en1

1 Otros exponentes notables de la HFSS son Fodor {The Language o f Thought) y Newell y Simon («Com puter Science as Empirical Enquiry: Symbols and Search»).

Estos últimos son responsables en parte de la terminología que empleo: lo que yollamo «hipótesis fuerte del sistema de símbolos» es un aspecto de su hipótesis del sis-tema de símbolos físicos.

Page 270: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 270/416

274 Inteligencia artificial Una introducción filosófica

manipular conocimiento... [Este conocimiento está] codificado en propiedades del cerebro de la misma manera, en términos generales,que los contenidos semánticos de las representaciones del computa-

dor están codificados en estructuras simbólicas instanciadasfísicamente»2. Aunque no nos demos cuenta, nuestra actividad men-tal consiste en el fondo en manipulaciones de expresiones simbólicasde tipo preposicional, dice Pylyshyn; fundamentalmente, el pensa-miento humano es la manipulación de oraciones de un lenguaje o có-digo mental interno3. Este hipotético lenguaje interno se denomina aveces «mentalés». El mentalés puede o no puede asemejarse al código binario que emplean los artefactos hoy día (lo más probable es queno), e igualmente las operaciones computacionales básicas empleadas

 por el cerebro pueden ser muy diferentes de las enumeradas en la sec-ción 4.5. Como se cuidan de destacar los defensores de la HFSS, elcomputador de la cabeza puede tener poco parecido con las máqui-nas comerciales contemporáneas.

La nueva y vigorosa área de investigación conocida como cienciacognitiva se funda en la idea de* que el computador nos puede decir

mucho sobre el cerebro. Esta investigación interdisciplinaria de loscontenidos del cráneo humano capta sus adeptos de la psicología, laneurociencia, la filosofía, la informática, la lingüística, la antropologíay la zoología. Como es de esperar, hay muchos matices de opiniónentre tan diversa muchedumbre. Los científicos cognitivos durosaceptan la HFSS literalmente. Otros consideran la identificación delcerebro con un computador como una simple metáfora útil o comouna analogía para la investigación. Otro grupo aún cree que el cere-

 bro es una «especie de» computador, un computador en cierto sen-tido, pero no un manipulador de símbolos. Esta idea se retoma en el

 próximo capítulo. Éste se centra en la afirmación dura de que el cere- bro es literalmente un computador, en el sentido de «computador»definido en el capítulo 4.

La ciencia cognitiva es una disciplina emocionante. El cerebro hu-mano es el objeto más complicado y misterioso del universo cono-cido y los científicos cognitivos tienden a imaginar que están al bor-de mismo de descubrir cómo funciona. Yo soy optimista acerca delas perspectivas de comprensión que brinda este empuje nuevo, po-

2 Ésta es una cita compuesta, tomada de las páginas 55, 193 y 258 de Pylyshyn, Z/,Computation and Cognition.

3 Pylyshyn, Z., Computation and Cognition, p. 194.

Page 271: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 271/416

¿Somos computadores? 275

deroso y multidisciplinario; aunque abrigo el recelo básico de quecuando finalmente se produzca la brecha, la HFSS caerá arrollada porla gran avenida hacia el conocimiento.

 No todo el mundo tiene una actitud tolerante hacia la HFSS. KarlLashley, una de las más famosas figuras en el desarrollo de la cienciadel cerebro, y John Searle, famoso en las habitaciones chinas, han se-ñalado la existencia de una propensión histórica entre científicos y fi-lósofos a usar como modelos de la actuación del cerebro la tecnologíamás de moda en el momento4. A mediados del siglo xvil, cuando losrelojes y los autómatas hidráulicos hacían furor, Descartes desarrollóuna teoría hidráulica de las actividades del cerebro. Medio siglo des- pués Leibniz propuso que el cerebro se podía comparar a una fábrica.Freüd se apoyó con fuerza en el electromagnetismo y la hidráulica ensus descripciones de las operaciones del cerebro. Después, sir CharlesSherrington, el eminente neurocientífico británico, asemejó él sistemanervioso al telégrafo. Cuando el telégrafo fue desbancado por el telé-fono, el cerebro se convirtió en una centralita telefónica. Según los cí-nicos, la HFSS es simplemente el último paso de esta procesión de in-

tentos de comparar el cerebro con el último grito de la altatecnología. En 1951 Lashley rechazaba enojado la teoría de que el ce-rebro sea un computador, llamándola «analogía traída por los pelos»,y Searle no es menos desdeñoso en sus obras recientes5.

Quizá desvelar que la ciencia del cerebro sea una empecinada se-guidora de las modas ponga la HFSS bajo una luz algo diferente,

 pero, a fin de cuentas, la denuncia de Searle y Lashley no demuestragran cosa. Aunque hoy día nadie se incline a creer que el cerebro hu-

mano está ocupado por un reloj de agua en miniatura o por una cen-tralita telefónica, eso no basta para probar que el cerebro no sea uncomputador. La HFSS es una teoría empírica y nada "que no seaun estudio cuidadoso de los indicios puede suministrar una estima-ción de su plausibilidad.

4 Beach, F. A., Hebb, D. O., Morgan, C. T., y Nissen, H. W. (comps.), The Neu -

rophysiology o f Lashley, p. XIX; Searle, J., Minds, Brains and Science, p. 44.5 The Neurophysiology o f Lashley, p. XIX;  Minds, Brains and Science, esp. cap. 3;

véase también «Is the Brain a Digital Computer?», de Searle.

Page 272: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 272/416

276 Inteligencia artificial Una introducción filosófica

9.2. El soporte informático frente al soporte biológico

Como sabe todo el mundo, los diversos elementos y piezas que

llenan la cubierta metálica o de plástico de un computador comercialse conocen colectivamente como hardware. Los enamorados de laanalogía del computador llaman wetware (aparato biológico) a los jugosos pliegues de tejido gris y blanco que llenan el cráneo humano.Esta sección indaga el grado de semejanza entre ambos.

El aparato biológico consta predominantemente de dos categoríasde células: neuronas y células gliales. Las neuronas son las protagonistas del conjunto. Las aburridas células gliales, que superan a lasneuronas en la proporción de diez a uno, desempeñan diversos papeles secundarios. Éstos incluyen retirar las neuronas muertas y procurar que las vivas permanezcan cómodamente inmersas en sus bañosde nutrientes.

Cada neurona ostenta un enorme número de fibras conectoras,conocidas como proyecciones dendríticas y proyecciones axonales(véase la figura 9.1). Estas fibras serpentean por todo el cerebro, y co

nectan cada neurona hasta con diez mil de sus vecinas. Imaginemosuna neurona como un cuerpo con muchos pies y manos. Cada mano(proyección axonal) agarra el pie de una vecina (proyección dendrí-tica)6. Cada uno de los cuerpos es el centro de una enmarañada redde proyecciones ligadas, y pende en una malla de imponente comple

 jidad. En una estimación prudente de mil «manos» por neurona y1012neuronas por cabeza (esto es, un billón) hay un asombroso totalde mil billones de conexiones interneuronales en cada cerebro. En

 palabras de Steven Rose, un eminente neurobiólogo: «Las estructurase interacciones posibles en este [laberinto] superan toda descripción omatematización. La fascinación se aproxima al terror...»7.

En 1843 se descubrió que el sistema nervioso opera de forma primordialmente eléctrica, y a comienzos de los años cuarenta de este siglo se tenía un esquema detallado de cómo la neurona recibe y transmite impulsos eléctricos. Se puso de relieve que el principal propósitode la vida de una neurona es emitir breves descargas de electricidad asus vecinas, en las que las proyecciones axonales funcionan como fi-

6 Ahora se sabe que la ordenada imagen que pintaba la neurología clásica no es deltodo exacta; a veces los axones cogen axones, y las dendritas, dendritas. Además, hayalgunos tipos de neuronas que carecen de axones.

7 Rose, S., The Conscious Bminy p, 71.

Page 273: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 273/416

¿Somos computadores?277

Page 274: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 274/416

278 Inteligencia artificial. Una introducción filosófica

 bras de salida y las proyecciones dendríticas como fibras de entrada.En el cuerpo celular se desarrolla una descarga eléctrica, viaja a lolargo del axón o «cola» hasta el árbol de fibras de salida y por último

excita las fibras de entrada de una miríada de neuronas próximas8.Parece que en una neurona se produce una descarga siempre que unnúmero suficiente de neuronas conectadas a sus fibras de entrada«disparan» también. Si, por ejemplo, son excitados 700 de los 1.000

 pies de una neurona, automáticamente dispara y excita todos los piesque sus manos agarran.

Esta descripción es interesante, pero su punto débil es que no in-forma mucho y es incluso circular. Una neurona dispara impulsoshacia sus vecinas, pero estos impulsos sólo sirven para incitarlas adisparar impulsos hacia sus vecinas. ¿Cuál es el objeto de todo esto?El centenar de años que va de 1840 a 1940 produjo una gran cantidadde conocimientos detallados relativos a las propiedades químicas,eléctricas y celulares de las neuronas, pero este conocimiento no eranada comparado con las tierras ignotas que quedaban en el mapa.¿Qué podían estar haciendo estas células, en lo individual bien com-

 prendidas, cuando operaban misteriosamente juntas en sus enormes ygrotescamente complicadas mallas? ¿Qué armonía o razón podía ha-

 ber en su conducta cooperativa? El estudio detallado de las propieda-des de las neuronas individuales había revelado poco sobre la opera-ción del cerebro en su conjunto.

En retrospectiva, esto no puede sorprender. Pensemos en lo pocoque se podría aprender sobre la organización y funcionamiento de uncomputador a partir de un estudio detallado de los transistores indi-

viduales: casi nada. La época estaba madura para que apareciera unateoría con una perspectiva de nivel superior. Entonces aparecen Wa-rren McCulloch, un neurofisiólogo, y Walter Pitts, un matemático.En 1943 publicaron un artículo histórico con un título de los queechan para atrás: «Un cálculo lógico de las ideas inmanentes a la acti-vidad nerviosa». La ciencia del cerebro nunca volvería a ser la misma.

McCulloch y Pitts propusieron que se considerara que cada neu-rona estaba activa o inactiva, sin estados intermedios. Según su teoría,lo único que importa de una neurona es si dispara o no; todo lo de-más (como la intensidad de la descarga o las fluctuaciones en la com-

 posición química de la célula) se cataloga como detalle no esencial y

8 Este «toque» final es de naturaleza química más que eléctrica. Véase el trata-miento de los neurotransmisores de la sección 10.5.

Page 275: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 275/416

¿Somos computadores? 279

se pasa por alto (del mismo modo, una explicación del funcionamiento de una bomba de bicicletas pasa por alto cosas como el color,el peso y la composición química). Así, suponiendo que la neurona es

un simple conmutador encendido/apagado, se la puede considerarcomo un mecanismo que sirve para realizar físicamente uno u otro deUn conjunto de dos símbolos. Sí o no, verdadero o falso, 0 o 1: comoen el caso de los bits que manipula un computador artificial, no im

 porta la manera de escribirlos.Continuando con este enfoque, McCulloch y Pitts explicaron el

funcionamiento de pequeños grupos de neuronas como manipuladoresmuy simples de símbolos. Por ejemplo, se pueden conectar tres neuronas de forma que la tercera dispare cuando, y sólo cuando, las otrasdos lo hagan. En la terminología del capítulo 4, este manipulador desímbolos ejecuta la instrucción: escribe una cruz (o 1 o sí o verdadero)en la posición 3 si, y sólo si, las posiciones 1 y 2 contienen cruces.

Los computadores están llenos de mecanismos como éste. Losingenieros electrónicos les llaman «puertas lógicas». (Si recuerda lastablas de verdad, verá que la puerta que acabo de describir hace el pa

 pel de la tabla de verdad de «y». La nota 9 da la tabla.) Sin embargo,McCulloch y Pitts escribieron justo antes de que comenzara la épocade los computadores. Hacia el final de su artículo hicieron una com

 paración abstracta entre una red de neuronas interconectadas y unamáquina de Turing (sección 6.4), pero, aparte de esto, en el artículono se mencionan los computadores. Hasta dos años después no em

 pezaron a circular noticias sobre el diseño de ENIAC y de EDVAC.Las conexiones con la obra de McCulloch y Pitts atrajeron el interés,

y de pronto un montón de gente sumó dos y dos. Puede que las neuronas sean el mismo tipo de cosas que los elementos biestables y las-

 puertas lógicas binarias de EDVAC.Medio siglo después está claro que la gente sumó dos y dos y le

salió cinco. Incluso en aquel momento había cierto número de indi-

9 La tabla de verdad de Y (C ONJU NCIÓ N) es la siguiente (siguiendo las líneas

horizontales):

Enunciado X Enunciado ZX CONJUNCIÓNZ

Verdadero Verdadero   Verdadero

Verdadero   Falso   Falso

 Falso   Verdadero   Falso

 Falso   Falso   Falso

Page 276: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 276/416

280 Inteligencia artificial. Una introducción filosófica

cios molestos relativos a las desemejanzas entre neuronas y compo-nentes de los ordenadores (indicios lo bastante patentes como parahacer dudar al pionero de la informática John von Neumann de que

el cerebro fuera un computador)101112. La dificultad era un cuerpo de datos que sugerían que «activo o inactivo»  no era ciertamente el únicorasgo importante de la actuación de una neurona. Por ejemplo, la tasaa la cual emite una neurona impulsos eléctricos parece desempeñar un

 papel vital en el procesamiento cerebral, mientras que la tasa de dis paro de un elemento biestable no tiene significación computacional.

Otra desemejanza conocida entre las neuronas y la electrónica serefiere a la densidad de las conexiones. Cada neurona tiene un nú

mero enorme de conexiones de entrada y de salida (algunas exhibenhasta 100.000 de cada). En abierto contraste, las conexiones que rodean a un elemento biestable o a una puerta lógica se pueden contarcon los dedos de una mano. Una tercera dificultad se refiere a la diversidad. Mientras que el procesador central de un computador sólocontiene unos pocos tipos básicos de unidades (sólo elementos bies-tables y puertas), el cerebro contiene muy diferentes especies de neu

ronas. Algunas tienen la figura de pirámides, otras de estrellas, otrasde husos, otras de candelabros11. No es plausible eliminar esta variedad como detalle ño esencial. Porque parece haber una correlaciónentre el tipo de la neurona y su función específica, y en diferentesáreas del cerebro predominan neuronas con distintas figuras.

Así, pues, en realidad sólo hay una semejanza superficial entre lasneuronas y los componentes básicos de los computadores manufacturados. Por citar a Thomas Poggio, uno de los exponentes de una nueva

raza de investigadores de la IA que se interesan por la neurofisiología:«Las neuronas son ingenios complejos, muy diferentes de los simplesinterruptores digitales... que retrataban... McCulloch y Pitts» !2. Peroésta es sólo una de las muchas dificultades de la supuesta analogía entreferretería y biología que se han puesto de manifiesto. Ahora está claroque la analogía falla de varias maneras fundamentales. El resto de estasección da un análisis pormenorizado de esta fractura.

t0 Von Neumann, J., «The Computer and the Brain» y «The General and LogicalTheory of Automata».

11 Todavía es una cuestión abierta cuántos tipos distintos de neuronas hay: quizávarios miles (véase Crick, F., y Anasuma, C., «Certain Aspects of the Anatomy andPhysiology of the Cerebral Cortex», p. 358.

12 Poggio, T., y Koch, C., «Ill-Posed Problems in Early Vision: from Computational Theory to Analogue Networks», p. 304.

Page 277: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 277/416

 La limitación de los 100 pasos13

¿Somos computadores? 281

En comparación con los elementos electrónicos, el cerebro es len-

tísimo. Los acontecimientos singulares electrónicos —un cambio de posición de 0 a 1 de un elemento biestable, por ejemplo— empleanalrededor de una milmillonésima de segundo, mientras que una neu-rona necesita una milésima entera aproximadamente para responder ala estimulación de sus pies con una descarga eléctrica a lo largo de sus

 brazos. En términos de las operaciones eléctricas básicas, pues, a uncerebro le lleva un tiempo mil veces superior actuar que al más hu-milde computador personal (y recordemos que un millón de segun-dos son casi quince días).

Supongamos, por mor del argumento, que el cerebro trabaja comosi siguiera un programa; esto es, supongamos que el cerebro trabajasiguiendo paso a paso una serie de instrucciones, igual que un com-

 putador que esté ejecutando un programa de IA. Veamos dónde noslleva esta suposición. Debido al tiempo que emplea una neurona enoperar, una milésima de segundo, el cerebro necesitaría al menos este

tiempo en obedecer cada instrucción (o mucho más si la instrucciónexige varios ciclos sucesivos de actividad). Así, el número máximo deinstrucciones que puede manejar en una décima de segundo es 100, yuna décima de segundo es más o menos el tiempo que el cerebro em-

 plea en extraer el significado de una oración o en reconocer un pa-trón visual. De esto se deduce que si el cerebro realiza tareas comoésta siguiendo paso a paso un programa, entonces el programa paracada tarea debe tener un máximo de 100 instrucciones. Y eso es ri-

dículo. Los programas de IA actuales contienen miles y miles de ins-trucciones: 100 es una bagatela. Escribir en 100 líneas un programa de

 procesamiento del lenguaje o de reconocimiento visual es como ali-mentar a 5.000 personas con cinco panes y dos pececitos.

Estamos abocados a la conclusión de que, sea lo que sea el cere- bro, no es un ingenio que ejecute programas de IA tradicionales. Lasoperaciones que ocurren en el computador de Roger Schank cuandoejecuta Sam deben tener una similitud muy difusa con lo que ocurreen la cabeza del propio Schank.

í3 Esta terminología tiene su origen en Feldman, J. A., y Ballard, D. H. («Conneotionist Models and their Properties», p. 206).

Page 278: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 278/416

282 Inteligencia artificial. Una introducción filosófica

 Actividad paralela

Los computadores comunes o caseros se denominan  procesa-

dores secmnciales porque se deslizan a lo largo de sus instruccionessecuencialmente, y las obedecen una tras otra. Por el contrario,un procesador paralelo realiza muchas operaciones simultáneamente (o «en paralelo»). Por ejemplo, supongamos que Alí Babáse esconde en uno de los cuarenta cántaros. Un procesador se-cuencial lo encontraría siguiendo las instrucciones  Busca en el  cántaro 13 Busca en el cántaro  2... Un procesador paralelo queconstara de cuarenta esclavos convenientemente apostados encon

traría a Alí siguiendo las cuarenta instrucciones a la vez. La ventaja evidente de un ingenio paralelo sobre uno secuencial es la velocidad. Una máquina, u órgano, con componentes lentos comocaracoles y un modo de operación paralelo es favorita ante uncompetidor con componentes de alta velocidad, pero un modo deoperación secuencial. (La excepción es, claro está, que la tarea encuestión requiera por su propia naturaleza úna aproximación se

cuencial H. Un ejemplo sencillo es la tarea de calcular la secuencia22, (22) \ ((22)>)\ etc.)El límite de los 100 pasos es un fuerte indicio de que el cere

 bro opera en paralelo, de algún m odo1415. Si cada «paso» consta demiles de operaciones realizadas simultáneamente, entonces se

 puede empaquetar una gran cantidad de procesamiento en la milésima de segundo que aproximadamente emplea el cerebro enidentificar un patrón visual o en atribuir significado a una ora

ción. (Los estudios anatómicos tienden a confirmar que el cere bro es un tipo de ingenio paralelo: la pauta de niveles paralelosde neuronas que operan simultáneamente se repite en todas partes.)

Sin embargo, en ciertos ambientes hay una especie de tradición de obliterar la distinción entre procesamiento paralelo y secuencial. El filósofo Aaron Sloman insiste en que «la distinción...no tiene gran importancia teórica»; y Roger Schank la ha descrito

14 Shimon Ullman denomina estas tareas «esencialmente secuenciales» («VisualRoutines», p. 120). Ullman sugiere que la secuencialidad esencial puede ser un rasgo dealgunos aspectos del procesamiento visual humano.

15 Rumelhart, D, E., y McClelland,}. L., «PDP Models and General Issues in Cognitive Science», p. 131.

Page 279: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 279/416

¿Somos computadores? 283

como «uno de los preciosos señuelos de la IA» 16. La razón habitual para pensar que la distinción no debe tener mucha importancia es que todo lo que se puede hacer en paralelo se puede hacer

secuencialmente: en vez de hacer un montón de cosas a la vez, tomémoslo con calma y hagamos una cosa cada vez. Cualquier procesamiento paralelo se puede simular en una máquina secuencial.

La debilidad de esta línea de razonamiento tradicional está enque no puede dar cuenta de la complejidad del cerebro. Si nos tomamos en serio las cifras, aparece una imagen completamente distinta. «Si las estimaciones actuales del número de [conexiones] delcerebro son remotamente acertadas», escribe James McClelland

(un crítico destacado de la IA tradicional), «incluso a uno de losmás rápidos computadores de hoy día le llevaría entre varios añosy varios siglos simular el procesamiento que tiene lugar en el cerebro humano durante un solo segundo» 17. Cuando vemos bien ala tortuga, nos damos cuenta de que Aquiles está perdido.

 Recuperación de recuerdos

Cada localización de la memoria de un computador tiene unadirección única (sección 4.3). Estas direcciones, como las de lascasas, se forman simplemente numerando las localizaciones (así, lalocalización de almacenamiento con dirección 10 podría contenermi número de la Seguridad Social, y la localización con dirección11 mi fecha de nacimiento). Estas direcciones forman el único es

labón que une el programa con el almacén de la memoria: una información no se puede recuperar si en el programa no se especifica su dirección numérica. Por ejemplo, si el programa tiene quemultiplicar el número total de lechugas vendidas por el precio dela unidad, tiene que saber las direcciones en las que están colocadas estas informaciones. Si no hay dirección no hay recuerdo I8.

56  Sloman, A., The Computer Revolution in Philosophy, p. 135. Se cita a Schank enWaldrop, M. M., «Artificial Intelligence in Parallel», p. 610.

17  McClelland, J. L.} «Models of Perception and Memory based on Principles of Neural Organisation», p. 22 (citado por Patricia Churchland en Neurophilosophy).

18  Quien sólo haya tenido trato con los lenguajes de programación de alto nivel,como el BASIC o el Pascal, puede extrañarse del concepto de dirección, pues las direc-

: ciones no aparecen nunca en el programa. Es el compilador del programa —otro p rograma que traduce las instrucciones del primer programa a código de máquina— quien

Page 280: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 280/416

284 Inteligencia artificial. Una introducción filosófica

Los seres humanos, por ei contrario, no recuperan los recuerdos por medio de direcciones asignadas, sino gracias a una descripción dela información requerida. La pregunta «¿qué comimos la última vez

que te invitamos?» describe la información que busca la hablante, y, provisto de la descripción, mi cerebro probablemente será capaz derescatar el recuerdo en cuestión.

Cada información que está en la memoria de un computador posee una única dirección o «agarradera». Por el contrario, el cerebrohumano puede usar cualquiera de entre una colección ilimitada dedescripciones para recuperar el mismo hecho. Por ejemplo, mi anfi-triona podría haber suscitado el mismo recuerdo preguntando: «¿Quétomamos la tarde que vimos esa comedia sobre Turing?».

El principio general parece ser que si se especifica parte del contenido de un recuerdo (la última comida en casa de Marta, la comidaconsumida con Marta antes de ir a ver «El juego de imitación»), entonces el cerebro puede recuperar el resto del recuerdo. Por estarazón, se dice qué las memorias humanas son direccionables por el  contenido: se accede a sus recuerdos a través del contenido. En un

computador, por el contrario, el acceso tiene lugar a través de una dirección tan relacionada con el contenido del recuerdo como el número de una casa con sus muebles.

A menudo, la descripción que inicia la rememoración se relacionacon un aspecto muy abstracto del recuerdo en cuestión. He aquí unejemplo curioso. «Un amigo me dijo, hace poco que [en] la primeraedición de la  Encyclopaedia Britannica... a la A le correspondieron511 páginas, y desde la  M   a la 2 ocuparon en conjunto 753 páginas.

Este hecho sorprendente provocó en mí al instante la recuperacióndel recuerdo, implantado en mi mente hace años bajo circunstanciasdel todo olvidadas, de cómo se solían hacer los discos fonográficos en

se encarga de asignar direcciones, a las variables y constantes que empleamos. Porejemplo, si introducimos la línea

COSTETOTAL = LECHUGAS x PREC IOUN IDAD

el compilador la convertirá en algo como

MULTIPLICAR Al A2 A3

donde A l es la dirección del valor de LEC HUGAS, A2 de PRECIO UN IDA Dy A3 de COSTETOTAL.

Page 281: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 281/416

¿Somos com putadores? 285

los tiempos en que no había cinta magnética y el master   se grababadirectamente durante la actuación en vivo. Los intérpretes cantaban otocaban hasta que de pronto el ingeniero de grabación se daba cuenta

de que no quedaba mucho disco, y a los intérpretes se les hacía unaseñal para que se apresuraran. En consecuencia, el tempo era más vivocuanto más se acercaba la aguja al centro del disco»i9.

La brizna de contenido que sirvió para recuperar este recuerdo estan abstracta que es difícil captarla con palabras: tiene algo que vercon que hay más espacio al inicio que al final. El ejemplo ilustra conviveza cuán abierto es el acceso que tenemos a nuestros recuerdos.

 No se puede averiguar qué aspecto del contenido del recuerdo puedeservir para recuperarlo, lo que está muy lejos del rígido uso de direc-ciones asignadas.

El computador es un imitador brillante. Si el programador tienesuficiente astucia, se puede persuadir a un computador de que imitemuchas cosas que no es, desde una explosión nuclear hasta el estó-mago de una vaca. Como la dirección por contenidos es un rasgo tandeseable para un sistema de memoria, se han invertido considerables

esfuerzos en diseñar programas que permitan a los computadoresimitar a los sistemas direccionables por contenido. Sin embargo,hasta ahora sólo se han conseguido torpes parodias. Un método eshacer que el computador busque exhaustivamente todos los ítems desu memoria hasta, dar con el que tenga el contenido en cuestión. Unmétodo más eficiente de programación hace uso de la «dispersión».La codificación dispersa (o almacenamiento disperso) es una técnicade programación que permite al computador recuperar un dato

cuando se le presenta una parte predeterminada de él, conocida como pista (o clave). Por ejemplo, si el dato que recupera es la oración«Kant escribió la Crítica de la razón pura»>  la pista puede ser «Kantescribió». El truco está en almacenar los datos en una localización dememoria cuya dirección se pueda calcular a partir de la pista me-diante alguna función prevista. El programador puede, por ejemplo,decidir almacenar los datos en la localización cuya dirección es el nú-mero que resulta de sumar los códigos ASCII de todas las letras de la

 pista (hay varias técnicas comunes en uso, y se las conoce colectiva-mente como funciones de dispersión20). El computador responde a la pista con el cálculo de la dirección correspondiente y la recuperación

19  Hofstadter, D., «Variations On A Theme as the Essence of Imagination», p, 20.20  Kohonen, T., Content-Addressable Memories, capítulo 2.

Page 282: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 282/416

286 Inteligencia artificial. Una introducción filosófica

de los datos que el programador ha almacenado ahí. La limitaciónobvia de este método es que el programador tiene que especificar poranticipado las pistas. El método, por tanto, no capta lo que llamo el

carácter abierto del acceso que poseemos a la información almace-nada en nuestros cerebros: no se sabe de antemano qué «parte» de unrecuerdo dado puede servir de «pista». Nadie se ha aproximadosiquiera a hincar el diente al problema de reconciliar el sistema dedirecciones ciegas al contenido de un computador con el carácterabierto del recuerdo humano.

 Distribución

En un computador, cada cadena de marcas de símbolos existe enuna localización física específica: en una porción de cinta magnéticaquizá o almacenada en una fila de elementos biestables. Un ingeniero

 podría poner un trozo de material bajo un microscopio, señalar unsitio particular y decir: «Ahí es donde está almacenado el recuerdo de

que tal y cual: justo ahí.» El recuerdo podría ser destruido completa-mente limpiando la localización (y cualquier localización que con-tenga copias, claro). El almacén de memoria de un computador secompara a menudo con un archivo o una biblioteca: cada paquete deinformación está almacenado en un lugar particular y la recuperaciónimplica «ir al sitio y coger la información».

A menudo comparamos nuestra memoria a un archivo. Ésta es probablemente una concepción muy desencaminada. Hay fuertes in-

dicios de que la memoria humana no funciona según el principio de«cada ítem su localización». Años atrás Karl Lashley realizó una va-riedad de estudios con animales, ratas en particular, con la intencióninicial de encontrar los aposentos exactos en el cerebro de recuerdosespecíficos. Usó una técnica conocida como ablación. En un experi-mento típico se entrenaba a 100 ratas para que aprendieran una ruta através de un laberinto para encontrar una recompensa de comida.Una vez que las ratas habían memorizado la ruta, Lashley le extir-

 paba quirúrgicamente (ablación) a cada una un área diferente del ce-rebro. Luego se volvían a poner las ratas en el laberinto. Lashley ob-tuvo el resultado nada intuitivo de que la destrucción de hasta el 10

 por 100 aproximadamente de la corteza producía muy pocos efectos,con independencia de la región destruida. Cuando se extirpaba máscorteza, el número de errores al recorrer el laberinto era proporcional

Page 283: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 283/416

¿Somos com pu tado res? 287

al área de superficie destruida, pero.no se relacionaba con la posi

ción21. El recuerdo de la ruta correcta no parecía estar almacenado en

ningún sitio en particular.

En 1950 Lashley resumió los resultados de treinta y tres años deestudios sobre la ablación como sigue:

N o es posible demostrar la localización aislada de un rastro de un recuerdo 

en ningún lugar del sistema nervioso... La [huella] está representada en toda 

la región... Está justificada la. conclusión, c r e o ,... de que todas las células del 

cerebro están activas constantemente y participan, por una especie de suma 

algebraica, en todas las actividades. N o hay células especiales reservadas para 

recuerdos especiales... cada caso de recuperación requiere la actividad de mi-llones, literalmente, de neuronas. Las mismas neuronas que retienen las hue-

llas del recuerdo de una experiencia deben también participar en otras innu-

merables actividades22.

Estos resultados eran un rompecabezas para Lashley. Como seña

laba con ironía: «A veces tengo la sensación, al revisar los datos sobre

la localización de las huellas de la memoria, de que la conclusión ne

cesaria es que el aprendizaje no es posible. Es difícil concebir un mecanismo que satisfaga las condiciones impuestas»23. ¿Cómo es posi

 ble, preguntaba Lashley, que la información de la corteza no esté

almacenada en ningún sitio en particular, sino en todas partes?

Una década^más o menos después de que Lashley escribiera estas

 palabras, la técnica recién inventada de la hólografía proporcionó a

los investigadores de la memoria un modelo de almacenamiento de la

información que podría encajar con sus desconcertantes resultados 24.

Los hologramas son «fotografías láser»; su rasgo más famoso es elmágico efecto tridimensional que producen cuando se proyecta la luz

de un láser a través de una placa fotográfica. Si se sitúa la placa frente

a una luz ordinaria, no parece más que un negativo fotográfico ordi

nario. No se discierne ninguna imagen, sólo una mezcla borrosa. Sor

 prendentemente, cualquier trocito de esta confusión almacena toda la

escena. El resultado de hacer un agujero en la placa es notablemente

21  Lashley, K. S., «In Search of the Engram», p. 492.

22  Lashley, K. S., ibidem, pp. 500,501, 502.

23  Lashley, K. S., ibidem,p. 501.

24  Longuet-Higgins, H. C., «The Non-Local Storage of Temporal Information»;

Pribram, K. H., Nuwer, M., y Baron, R. J., «The Holographic Hypothesis of Memory

Structure in Brain Function and Perception».

Page 284: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 284/416

2S8 Inteligencia artificial. Una introducción filosófica

similar al efecto que tiene la pérdida de tejido sobre la memoria; hayuna debilitación global del detalle de la imagen proyectada, pero nodesaparece ninguna parte específica de la escena. Una placa holográ-

fica es un ejemplo de lo que se llama ahora un sistema distribuido dealmacenamiento de información: esto es, un sistema en el que las informaciones individuales no ocupan localizaciones separadas, sinoque se esparcen uniformemente por el medio de almacenamiento.Los resultados seminales de Lashley son una indicación de que el cerebro hace un uso considerable del almacenamiento distribuido.

Estudios recientes han tendido a confirmar la conclusión global deLashley de que no hay ninguna relación evidente entre la localización

 precisa de una lesión (esto es, el área destruida) y el déficit resultanteen la conducta25. Sin embargo, cuando los juzgamos mediante criterios actuales, sus métodos experimentales eran algo bastos, y pocosaceptan hoy día sus hallazgos con su plena integridad. Su hipótesis de«no hay células especiales reservadas para recuerdos especiales» esdudosa, como lo es su sugerencia de que cada actividad cognitiva involucra todas las células del cerebro. Los estudios por medio de mi-croelectrodos del comportamiento de neuronas aisladas (que conllevanintroducir un delgado cable en el cerebro de un animal consciente)han revelado la presencia de neuronas que responden máximamente aestímulos muy específicos. Por ejemplo, la corteza visual superior delmacaco contiene neuronas aisladas que parecen dispararse cuandoaparece una mano de mono en el campo visual del macaco26. Éste es,al parecer, exactamente el tipo de especificidad que Lashley negaba.

El peso general de los indicios que suministran los estudios con

microelectrodos es que las células que muestran tan extrema especificidad pueden ser muchas menos que las menos especializadas. Lasneuronas aisladas responden generalmente a un amplio rango de estímulos diferentes, lo que indica que cada neurona puede estar involucrada en el almacenamiento de muchas informaciones diferentes27.

25  Véanse, por ejemplo, Chow, K. L., «Visual Discriminations After ExtensiveAblation of Optic Tract and Visual Cortex in Cats»; Keating, E. G., y HoreL, J. A.,«Effects of Prestriate and Striatre Lesions on the Monkey's Ability to Locate and Discriminate Visual Forms».

26 Gross, C. G., Bender, D. B., y Rocha-Miranda, C. E., «Inferotemporal Cortex:A Single-unit Analysis».

27  Eccles, J. C., «Possible Synaptic Mechanism Subserving Learning»; Anderson,J. A., Silverstein, J. W., Ritz, S. A., y Jones, R. S., «Distinctive Features, Categorical Perception, and Probability Learning: Some Applications of a Neural Model», pp. 421-2.

Page 285: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 285/416

¿Somos computadores? 2S9

Incluso la «neurona de la mano de mono» responde a otros estímulosque no son la mano, aunque la respuesta es más débil28.

En la fase presente, la imagen global no está clara, y hay desacuer

dos considerables entre los neurocientíficos acerca del número deneuronas que el cerebro usa para almacenar una huella de memoria.James Anderson y Michael Mozer conjeturan que en el almacenamiento de una sola huella participan entre setecientas mil y siete millones de neuronas (una estimación considerablemente inferior a la deLashley)29. En el otro extremo de la escala, Horace Barlow sugiereque el número puede ser mil neuronas (una cifra que muchos tendrían por demasiado baja para ser compatible con los resultados delos estudios de ablación y de lesiones)30.

Si Anderson y Mozer tienen razón, entonces las huellas de memoria están enormemente distribuidas en el cerebro, como mostrará

 jugar un poco con la aritmética. Su cifra de siete millones representaaproximadamente el 10 por 100 de las neuronas de la corteza visual

 primaria31. Supongamos que en el curso de la vida nuestro cerebro haalmacenado N recuerdos visuales. Evidentemente N será un número

descomunal. En el supuesto de que cada uno de los recuerdos requiera el 10 por 100 de las memorias disponibles para almacenarlo,cada neurona individual deberá participar en el almacenamientode N/10 recuerdos visuales (mientras que en un computador cadaelemento biestable participa en el almacenamiento de exactamenteuna información). Dado él tamaño de N, hay una distribución a granescala.

Está claro que la memoria humana es de naturaleza muy distinta

de la de los almacenes no distribuidos, direccionados de los computadores actuales.

28  Gross, C. G.; Bender, D. B., y Rocha-Miranda, C. E., «Inferotemporal Cortex:A Single-unit Analysis», pp. 231-3.

29  Anderson, J. A., y Mozef, M. C., «Categorization and Selective Neurons», p. 217.

30  Barlow, H. B., «Single Unit and Sensation: A Neuron Doctrine for PerceptualPsychology?», pp. 385 y 389-90.

31  La corteza visual primaria es importante aquí, porque se cree que las localizaciones más probables del almacenamiento de recuerdos son las mismas áreas de la cortezadonde toman forma las impresiones sensoriales iniciales. Parece que están implicadasotras estructuras, como el hipocampo y la amígdala, en la consolidación y recuperación de recuerdos. (Véase Squire, L. R., y Zola-Morgan, S., «Memory: Brain Systemsand Behaviour».)

Page 286: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 286/416

290 Inteligencia artificial Una introducción filosófica

 Degradación elegante

Los computadores son proclives a morir con la menor herida. Un

repentino golpe con el destornillador en casi cualquier lugar del procesador central y la máquina se vuelve loca. En los viejos tiempos,cuando los componentes electrónicos destacaban por su baja fiabilidad, los computadores solían pasar más tiempo en un estado de com

 pleta parálisis que funcionando; y aun hoy día, el fallo de un miserable semiconductor puede poner a su merced una instalaciónmultimillonaria. En el caso del aparato biológico las cosas son muydiferentes. Soporta bien los daños. Incluso las lesiones graves pueden

tener poco o ningún efecto sobre las funciones centrales del cerebro,como muestra el famoso caso de Phineas Gage, un ferroviario. Minutos después de que sus lóbulos anterior y medio del lado izquierdode su cerebro hubieran sido machacados por una barra de hierro,Gage estaba consciente, recordaba y hablaba. Según John Harlow, elmédico de Gage, el efecto de la herida y la posterior infección fue hacerle «propenso a los arrebatos, irreverente... obstinado... dubita

tivo... inclinado a veces a las más graves blasfemias... impaciente antela prohibición o el consejo... [pero] con las pasiones animales de unhombre fuerte»32. Gage tuvo una vida viajera durante los trece años

 posteriores al accidente, y murió por causas desconocidas.Los estudios de laboratorio de sujetos que han perdido pequeñas

cantidades de tejido cerebral (por lesión o cirugía) indican que eldaño produce un deterioro gradual de la actuación. Cuanto más te

 jido se pierde, más se empeora, por ejemplo, en la discriminación de

 patrones visuales o en la comprensión del lenguaje (la naturaleza precisa del deterioro depende del lugar del cerebro donde ocurre la agresión). No hay un colapso repentino. La actuación de un cerebro sedegrada poco a poco y con elegancia conforme aumenta el daño,mientras que un computador se desploma al menor asomo de dificultades 33. Otra vez encontramos una profunda falta de semejanza entreel soporte informático y el soporte biológico.

32  Harlow, J. M., «Recovery from the Passage of and Iron Bar Through the Head», pp. 339-40.

33  El término «degradación elegante» lo emplean en este contexto Rumelhart yMcClelland («PDP Models and General Issues in Cognitive Science», p. 134).

Page 287: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 287/416

9.3. Adiós, Von Neumann

¿Somos comp utádores? 291

A los oponentes de la HFSS les agradaría poder concluir a partir

de esta lista de desemejanzas entre la biología y la ferretería, que el ce-rebro no es un computador. Varios autores lo hacen. En opinión dela filósofa Patricia Churchland «estas diferencias [hacen] parecer másque tenue la metáfora que identifica el cerebro con un computador, yel biólogo John Young afirma francamente, sobre la base de estas di-ferencias, que «la analogía del computador es intolerablemente inade-cuada para describir el funcionamiento del cerebro»34. Sin embargo,

no se puede extraer esa conclusión. Lo único que se puede concluirlegítimamente es que el cerebro no tiene lo que se conoce como una arquitectura Von Neumann. Me explicaré.

Cuando el equipo de ENIAC se disgregó en 1946, John von Neumann emprendió la reorganización y extensión del diseño de estamáquina pionera. El resultado fue un conjunto de brillantes propues-tas arquitectónicas que han sido pilares del diseño de computadoresdesde entonces35. Un computador construido según las especificacio-

nes de Von Neumann se llama simplemente una máquina Von Neu-mann. Incluso hoy, la arquitectura Von Neumann és prácticamenteuniversal en la industria de los computadores.

Una lista de los rasgos centrales de la arquitectura Von Neumannes casi como releer los puntos de la sección precedente.

1. Una máquina Von Neumann es un procesador secuencial:ejecuta una tras otra las instrucciones de su programa36.

2. Cada cadena de símbolos está almacenada en una localizaciónespecífica de la memoria.

3. El acceso a una cadena almacenada procede siempre a travésde la dirección numérica de la localización de la cadena.

34  Churchland, P. S.,  Neurophilosophy , p. 459; Young, J. Z.,  Philosophy and the 

 Brain , p. 18 (véase también la p, 64).35  Burks, A. W., Goldstine, H. H., y Von Neumann, J., «Preliminary Discussion

of the Logical Design of an Electronic Computing Instrument». ,36 Se dice a veces que una máquina von Neumann «sólo hace una cosa cada vez».

Esto es un poco metafórico. Un computador moderno puede, en un momento dado, pasar los resultados de la instrucción del programa a una localización de memoria,obedecer la instrucción n 4* 1 (esto es, realizar la manipulación que requiere la instruc-ción) y leer la instrucción n + 2.

Page 288: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 288/416

4. Hay un único «puesto de control», la unidad central de procesamiento o CPU.

La CPU contiene un registro especial, el «registro de instrucción», en el que se introducen las instrucciones una por una (véase lasección 4.3). Por ejemplo, supongamos que en el registro de instrucciones entra el código binario de «cambiar» (como se explica en lasección 4.4, la función de esta instrucción es cambiar todo lo que estáen el registro un lugar hacia la derecha. El bit del extremo derechodel registro «cae» y se introduce un cero en el extremo izquierdo. Elresultado de cambiar 0101 es 0010). La llegada de la instrucción al registro de instrucciones inicia un ciclo de actividad de tres partes en laCPU. Primero, la cadena de símbolos sobre la que hay que operar setransfiere de la memoria principal a un registro de almacenamiento acorto plazo (buffer)  que está en la CPU. Segundo, se realiza el cam

 bio y se coloca la cadena resultante en el almacén a corto plazo queestá en la CPU. Tercero, se transfiere la cadena de esta localización

 provisional a la dirección originaria de la memoria principal. Este ci

clo de tres partes se conoce como ciclo recuperar-operar-almacenar.Pertenece a la naturaleza de una máquina que trabaje así el degradarsecon estrépito, pues para su funcionamiento necesita la salud, permanente de cada una de las partes del procesador central. Si falla uno desus registros, la actividad de la unidad central de procesamiento debedetenerse.

Lo que emana de la sección precedente es que el cerebro no esuna máquina Von Neumann. Sin embargo, no se sigue de esto que el

cerebro no sea un computador. La arquitectura Von Neumann essólo una aproximación a la construcción de sistemas universales desímbolos, una aproximación que ha evolucionado y medrado en elentorno ingenieril propio de la segunda mitad del siglo XX. Pero esdifícil que sea la última palabra. Si el cerebro hubiera resultado seruna máquina Von Neumann, eso habría sido apenas menos sorprendente que si el corazón hubiera resultado ser un tornillo de Arquíme-des. La arquitectura Von Neumann no es más que la primera manifestación de una tecnología nueva y dinámica.1

1. No hay ninguna conexión necesaria entre la manipulación desímbolos y el procesamiento secuencial. En los últimos añosha habido un progreso experimental considerable en el diseñode ingenios que operen en paralelo (aunque no se ha logrado

292 inteligencia artificial. U na intro du cció n filosófica

Page 289: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 289/416

¿Somos computadores? 293

nada parecido al grado de paralelismo que se encuentra en elcerebro). Los computadores con una arquitectura paralela sedenominan acertadamente máquinas «no Von».

2. El sistema de la memoria de un manipulador de símbolos notiene por qué basarse en el método de las direcciones numéri-cas. Una posibilidad es ciertamente un computador que useun sistema de almacenamiento direccionable por el conte-nido, aunque en el momento actual ese recurso es poco másque un brillo en los ojos de los investigadores.

3. La idea de Von Neumann de una única unidad de procesa-

miento corre pareja con un modo secuencial de operación,y lo más probable es que las arquitecturas paralelas futurassustituyan el control centralizado por la cooperación multi-lateral.

La HFSS no se pronuncia sobre asuntos de arquitectura. Sólo sos-tiene que el cerebro es un sistema universal de símbolos. Los temasde la actividad paralela, la distribución, etc., no afectan a la verdad o

falsedad de la hipótesis. Como dice Zenon Pylyshyn, «lo que ha im- pedido a muchas personas tomar la computación como una explica-ción literal de los proceso[s] mentales es no distinguir entre computa-ción como tipo de proceso y las formas físicas particulares que tomaen las máquinas computadoras actuales»37. La HFSS deja abierta lacuestión de cómo almacena el cerebro sus símbolos y cómo organizasus operaciones sobre ellos. Los científicos cognitivos entienden queéstos son temas de detalladas investigaciones empíricas mediante mé-todos que aún no se han desarrollado.

 El estado de la cuestión

Aunque los hechos repasados en la sección 9.2 no afectan a la ver-dad o falsedad de la HFSS, tienen, no obstante, un importante papel

 por desempeñar en nuestra indagación. Ponen de manifiesto que loscerebros tienen poca o ninguna semejanza con los computadores talcomo ahora los conocemos y entendemos, y esto ilumina el carácteresquemático de la HFSS. La HFSS contiene varios «parámetros» des-conocidos que aún no sabemos llenar. La teoría de que el cerebro es

37  pylyShyn, Z., Computation and Cognition, p. 55.

Page 290: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 290/416

294 Inteligencia artificial. U na intro du cció n filosófica

una máquina Von Neumann es, por lo menos, una afirmación precisay detallada, algo que se puede comparar con los datos, mientras quela teoría de que el cerebro es un computador de arquitectura desco

nocida, que usa símbolos desconocidos y operaciones fundamentalesdesconocidas, es un atisbo esquemático. Sin duda, con el tiempo,estas incógnitas serán reemplazadas por propuestas detalladas ycontrastables experimentalmente; pero, por ahora, esta imprecisión,unida a nuestros limitados datos experimentales acerca de la funcióncerebral, hace que la HFSS esté bien lejos del alcance de la refutacióno la confirmación por medios empíricos.

Las polémicas filosóficas florecen en áreas en las que los indiciosempíricos son tenues, y los científicos cognitivos acuden principalmente a consideraciones filosóficas cuando recaban apoyo para laHFSS. El paso siguiente de nuestra investigación, pues, es examinarlos argumentos filosóficos que proponen. Éste es el programa paralas cuatro próximas secciones.

Antes, sin embargo, quiero desembarazar el camino de un argumento que se podría emplear contra la HFSS. Dice así: muchos as

 pectos del funcionamiento del cerebro no tienen nada que ver con lamanipulación de símbolos; por tanto, la HFSS es errónea.Supongamos, por ejemplo, que el ruido del cortacésped de nues

tro vecino nos provoca un dolor de cabeza, o que perdemos el auto bús y nos pasamos de mal humor el resto del día. ¿Cómo va a consistir en una manipulación de símbolos el dolor de cabeza o ponerse demal humor? El rasgo central de las cadenas de símbolos es que, comolas oraciones, codifican información. Se comprende que adquirir una

creencia pueda consistir en formar una cadena de símbolos; pero, alcontrario que las creencias, los dolores de cabeza y los estados deánimo no codifican información y, por consiguiente, es un completoenigma que los procesos de adquirirlos sean manipulaciones de sím

 bolos 38. Éste es el tipo de consideraciones que hay detrás de la premisa del argumento.

Sin embargo, la premisa no proporciona el menor apoyo a la conclusión. Un ingenio que es principal y cardinalmente un procesadorde símbolos puede soportar otras actividades además de la manipulación de símbolos, igual que un procesador de alimentos incurre enactividades distintas de la manipulación de alimentos (puede tener 

38 Para un estudio emparentado, véase Haugeland, J., «Artificial Intelligence: TheVery Idea», pp. 230-8.

Page 291: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 291/416

¿Somos com putadores? 295

sistemas de refrigeración o de lubricación). La ciencia cognitiva no se compromete ciertamente a ver todo lo que ocurre en el cerebro en términos de manipulación de símbolos. El cerebro es una mezcla de múltiples actividades, y la HFSS sólo se ocupa de los procesos que están implicados fundamentalmente en el pensamiento y en la pro-ducción de la conducta inteligente.

9.4. Dar significado a la carne

Por cortesía de mi cerebro soy capaz de hacer cosas tales como prever'las consecuencias posibles de mis acciones, razonar sobre loinobservado a partir de lo observado y desear que ciertas situacionesfueran de otra manera. Una condición previa para hacer esto es quemi cerebro se forme representaciones de acontecimientos, hechos yestados de cosas, actuales y potenciales. Por ejemplo, mi cerebro posee alguna forma de representar el hecho de que la salsa de tomate de

 jará una engorrosa mancha si se derrama sobre la camisa: de uno u

otro modo, contiene esa información.Dicho de otra manera, ciertos sucesos de mi cerebro tienen significado, en el sentido de que esos sucesos se refieren a y representanotras cosas: objetos, hechos, acontecimientos, etc. ¿Cómo es esto? Alfin y al cabo, la carne y el significado son compañeros dispares, peroestán juntos en mi cráneo; ¿Cómo? Ésta es una de las mayores lagunas en la comprensión del cerebro.

Un tipo más ordinario de entidad portadora de significado es la

oración común o de cultivo, hablada o escrita y sus numerosos derivados, tales como códigos, notaciones técnicas y las cadenas de sím bolos que habitan los computadores. La oración «Fido lame a Bernardo» es una representación simbólica del hecho de que Fido lame aBernardo. Ojalá fuera igual de fácil en el caso del cerebro.

«Yo creo que lo es» (éste es un defensor de la HFSS que entra enel momento oportuno39). «Las oraciones, y los símbolos lingüísticosen general, suministran el único modelo auténtico que poseemos decómo un fragmento de materia puede representar un hecho. Sabemosque el cerebro debe contener estados representacionales; por tanto, es

39 Véase Fodor, J., The Language of Thought , capítulo 2, y ««Fodor’s Guide toMental Representation», pp. 90-95; Pylyshyn, Z., Computation and Cognition, pp. 29y 39 y ss.

Page 292: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 292/416

296 Inteligencia artificial. Una introducción filosófica

natural teorizar que estos estados son literalmente oraciones: las re presentaciones que usa el cerebro son cadenas de tipo oracional desímbolos. Eso resuelve el problema de cómo los significados están en

la carne y da también una explicación de qué hace el cerebro realmente cuando razona, planea, etc. Está manipulando estas cadenas desímbolos».

 Pero ahora explique a qué se refiere cuando dice que el cerebro con-

tiene y literalmente, oraciones. «Bueno, por supuesto, no me refiero aque haya palabras, literalmente, escritas. Los símbolos de los que ha

 blo están realizados físicamente en el cerebro por medio de algún género de actividad eléctrica o química. En una máquina Von Neumann los símbolos binarios están realizados por medio de cambiosmagnéticos, estados de los elementos biestables, etc. No tengo nadaque decir sobre el método o métodos que emplea el cerebro. Eso esasunto de ulterior indagación empírica.»

 ¿Dice usted que cuando pensamos siempre lo hacemos en un lenguaje f  

«Sí, en cierto modo. No digo que el cerebro piense en oraciones delinglés o el alemán u otro idioma. Eso lo hacemos en un nivel consciente, pero el nivel de actividad cerebral al que aludo está por debajode la conciencia (y, de paso, también por debajo de las imágenesmentales)40. El lenguaje del cerebro no puede ser un lenguaje habladoordinario, sencillamente porque los niños que aún no han adquiridoun lenguaje materno se comportan con maneras que indican confuerza que ya tienen la capacidad de formar representaciones menta

les. No, el lenguaje es una especie de código cerebral especial. Yo lollamo mentalés por darle un nombre. Me inclino a creer que es innato, parte de nuestra dotación genética, más que aprendido.»

 ¿ En qué se supone que las representaciones del cerebro se parecen a oraciones? ¿Por qué decir que el mentalés es un «lenguaje»?  «Quieroque se me entienda literalmente cuando digo que estas representacio

40 Algunos autores consideran que la existencia de las imágenes mentales es un problema para la teoría de que el pensamiento consiste en la manipulación de oraciones (pues, al fin y al cabo, las imágenes no son oraciones). Véanse Kosslyn, S. H.,

 Im age and Mind  y Ghosts in the .Mind's Machine; Block, N., «Mental Pictures andCognitive Science»; Haugeland, J.,  Artificial Intelligence: The Very Idea , pp. 221-30.Para una discusión crítica, véase Pylyshyn, Z., Computation and Cognitiony capítulo 8.

Page 293: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 293/416

¿Somos computadores? 297

nes son oracionales. Ése es el meollo de mi teoría. La idea básica esque, de un lado, tenemos este enorme misterio sobre el modo comolos estados físicos del cerebro representan hechos, y, de otro, tene

mos estas agradables y simples oraciones, que ofrecen un modelo perfecto de cómo tiene lugar la representación. Lo que digo es: resolvamos el misterio postulando que estos estados del cerebro son literalmente oraciones. Lo que implica que las representaciones en mentalés comparten varias características centrales de las oraciones dellenguaje ordinario. Hay dos que hallo sobresalientes: primero, lo quellamo construcción a partir de unidades básicas del vocabulario, y,segundo, el uso de la forma para, por así decir, “capturar” el significado pretendido. En español empezamos con unidades básicas delvocabulario, como "lame”, “Fido” y “Bernardo” y, a partir de ellas,construimos oraciones. Lo que propongo es que, en este aspecto, elmentalés es semejante. Sobre el segundo punto, es la forma o patrónen que disponemos las unidades básicas lo que determina qué hechose representa: Fido lame a Bernardo o Bernardo lame a Fido. Cuandodigo que el mentalés es un lenguaje, me refiero a que las representa

ciones del mentalés poseen ambos rasgos.»

 Explíqueme por qué eso equivale a decir que el cerebro es un compu-

tador . «Bueno, la relación es muy simple. Según esta teoría, un cere bro y un computador son el mismo tipo de ingenio. Ambos operanmanipulando oraciones dé un código lingüístico interno. Las cadenasde bits tienen los dos rasgos que he mencionado: están construidas a

 partir de unidades básicas de vocabulario y el patrón en que se dispo

nen las unidades desempeña un papel crucial para determinar el significado (Sección 4.2). Por poner un ejemplo sencillo, si l i l i es la unidad básica que significa “copiar” y 00 y 01 nombran dos registros,

 podemos combinar estas tres unidades según dos patrones diferentes para obtener dos instrucciones diferentes: copiar 00 en 01, y viceversa. De paso, aquí vemos en acción un factor importante, y es quela forma relaciona el significado con la actividad. Si en el procesadorcentral entra la instrucción l i l i 00 01, la máquina responde de unaforma, y si entra l i l i 01 00, se causa una acción diferente. Vemos, pues, que en un computador es la forma o estructura de la cadena loque, por así decir* lleva a término causalmente el significado de la ca-*dena. Esto debería, tener atractivo para un filósofo. Los significadosson cosas bastante misteriosas y abstractas, y a primera vista es unrompecabezas entender cómo una cosa etérea como un significado

Page 294: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 294/416

298 Inteligencia artificial. Una introducción filosófica

 puede causar que una máquina haga algo. En los computadores este problema está resuelto con el uso de un código simbólico que reflejatodas las distinciones de significado pertinentes por medio de distin-

ciones formales a las que es sensible el aparato. Lo que digo es que nose nos ocurre de qué otra forma podría estar ligado el significado a laactividad, si no es a través de un código simbólico estructurado, y,

 por tanto, sugiero que debe haber tal código en el cerebro»41.

 Me parece que usted lo único que ha hecho ha sido proponer  una ex-

 plicación de cómo representa los hechos el cerebro, pero no ha hecho nada por mostrar que ésta es la explicación correcta. «Efectivamente,no lo he hecho. Pero, como iba diciendo, nadie tiene otras ideas sobrela unión del significado con la actividad. Puesto que la nuestra es laúnica explicación sobre el tapete, pensamos que hay que tomarla enserio. Como dijo en cierta ocasión Lyndon B. Johnson, "Soy el único

 presidente que tenéis.” Tenemos una teoría verosímil, que encaja bieny que carece de rivales.»

Pasemos a un segundo argumento en apoyo de la HFSS.

9.5. Creer lo que no se cree

Ibrahim, un vendedor de alfombras, se sienta sosegadamente conun refresco en un rincón sombreado del bazar. En esto por detrás de

él aparece de súbito una extranjera rubia. «Hola», le dice sonriente ysimpática. «Me llamo Nancy. Estoy haciendo turismo por tu país enuna moto.» El corazón de Ibrahim se acelera y se pone a cavilar lamejor forma de conseguir que salga a cenar con él.

Ahora administremos un breve cuestionario a Ibrahim.

1. ¿Pretende salir a cenar con esta atractiva y joven turista?2. ¿Pretende salir a cenar con el Ángel de la Muerte?

41 Adviértase que éste es un argumento para tomar en serio la HFSS en toda su di-mensión. El argumento sostiene que la única explicación que poseemos de cómo un in-genio físico puede representar hechos es que emplee un código simbólico, y eso seaplica también a ese ingenio que es el cerebro humano o a una pella de baba verde.

Page 295: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 295/416

¿Somos computadores? 299

Pues, bajo la encantadora sonrisa, ésta es la verdadera identidadde Nancy.

Ibrahim responde  sí  a la primera pregunta y un alarmado no a la

segunda. Asume el objetivo de cenar con Nancy y renuncia por entero al objetivo de cenar con el Ángel de la Muerte. Es un poco dificultoso que esto sea posible, porque en cierto sentido son el mismoobjetivo, pero es un hecho que para Ibrahim son objetivos diferentesy tiene (o tenía) uno, pero nunca ha tenido el otro.

Ibrahim, como todo el mundo, puede hacer este desconcertantetruco con las creencias y con las intenciones. Nunca ha creído que elÁngel de la Muerte fuera mortal, pero creía que Nancy lo era. Paraasegurarnos, volvamos atrás y prologuemos el cuestionario con una

 pregunta que solicite su opinión sobre la posible inmortalidad de Nancy. La respuesta de Ibrahim es definitiva. «Ella es como el aguaderramada en la arena del desierto», contesta. También sería contundente si se le pidiera exponer su creencia de que el Ángel de laMuerte, por el contrario, no es mortal. Puesto que Nancy y el Ángelde la Muerte son la misma persona, la creencia de que Nancy es mor

tal es en cierto sentido la misma que la creencia de que el Ángel de laMuerte es mortal; pero, paradójicamente, Ibrahim es capaz de mantener la una y no la otra.

¿Dónde, se preguntarán ustedes, nos lleva esta fantasía? Los fenómenos de este tipo —tener intenciones que no se tienen, creer lo queno se cree— constituyen las llamadas paradojas de la intencionalidad42. ¿Cómo son posibles estas hazañas aparentemente paradójicas?Jerry Fodor y Zenon Pylyshyn tienen una explicación.

«Una explicación natural de lo que es mantener una creencia», escribe Pylyshyn, «es que mantener una creencia consiste en almacenaren una... “caja de creenciasespecial una marca... de una oración enmentalés»43. Lo que Pylyshyn describe metafóricamente como la«caja de creencias» del cerebro es su almacén de creencias (la idea esque lo que hace que algo sea una creencia en vez de una meta o un temor o cualquier otra cósa es estar en esta «caja»44.) La hipótesis de

42 Los verbos que generan estas paradojas —creer, pretender, temer, esperar, etc.—se conocen colectivamente como verbos intencionales. Un estudio clásico de los ver

 bos intencionales es el de Chisholm, R. M., Perceiving: A Philosophical Study,  cap. 11.43 Pylyshyn, Z., Computation and Cognition, p. 195; Fodor, J., The Language of  

Thought, p. 71-9.44 La «caja de creencias» es una metáfora de Steven Schiffer.

Page 296: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 296/416

300 Inteligencia artificial. Una introducción filosófica

que el contenido de la «caja» son oraciones de mentalés explica la ca- pacidad de Ibrahim para creer que Nancy es mortal y a la vez nocreer que el Ángel de la Muerte es mortal* Hay alguna estructura de

símbolos X del mentalés que corresponde a la oración « Nancy esmortal» y otra diferente Y que corresponde a la oración «el Ángel dela muerte es mortal». Aunque X e Y registren el mismo hecho, evi-dentemente es posible que el cerebro de Ibrahim puede contener X yno Y en su «caja de creencias». He aquí, pues, una resolución limpiay simple de las paradojas de la intencionalidad.

En resumen. Si los actos de tener una intención, creer, dudar, etc.,se analizan'en términos de operaciones cerebrales realizadas sobre es-tructuras simbólicas, en seguida se comprende todo un mundo de fe-nómenos inicialmente paradójicos. Esto añade atractivo al análisis.

9.6. Productividad y sis tema ticidad

Decir que el pensamiento es productivo (en el sentido técnico que

entraña este tercer argumento a favor de la HFSS) es decir que en principio podemos tener un número ilimitado de pensamientos. Si el pensamiento es productivo, entonces, dada una vida infinitamentelarga, un ser humano podría tener un número infinito de pensamien-tos diferentes.

En el transcurso de una vida, una persona sólo puede tener un nú-mero finito de pensamientos. Supongamos que una persona tieneexactamente diez mil millones antes de que se aparezca el Ángel de la

Muerte. Habría otras muchas cosas en las que podría haber pensado pero no lo hizo. Llamemos a éstos «pensamientos potenciales». Porejemplo, alguien bien podría pasar toda su vida sin engendrar el pen-samiento «no es necesario afeitar el puente del puerto de Sidney to-das las mañanas». Negar que el pensamiento humano es productivoequivale a afirmar que hay un número máximo N de pensamientosactuales y posibles. Tenemos la sensación de que, por grande que sesuponga N, siempre podríamos idear otro pensamiento, el N + 1, noimporta cuán pintoresco (puede que valga simplemente el pensa-miento de que hay al menos N + 1 pensamientos). Pero imaginar que podemos hacer esto no demuestra que podamos, claro está. Es unacuestión empírica. Nadie sabe de cierto ;si el pensamiento humano eso no productivo. Sin embargo, mucha gente lo considera una hipóte*^sis plausible (algunos defensores del procesamiento distribuido para-

Page 297: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 297/416

¿Somos computadores? 301

lelo —la aproximación al conocimiento qne se estudia en el próximocapítulo— son enemigos destacados45). En palabras de Jerry Fodor,si el pensamiento, no es productivo, entonces «en principio podría

ocurrir que, después de mucho pensar, nuestras experiencias alcancena nuestras capacidades cognitivas y hayamos conseguido pensar todolo que éramos capaces de pensar». Y continúa: «No es prudente decirque esta consecuencia es absurda: eso lo admito, pero mi anciana tíano»46 (la sección 10.8 contiene un examen más exhaustivo del temade la productividad).

Decir que el pensamiento es sistemático, en el sentido de Fodor,significa que la capacidad de tener ciertos pensamientos está «intrínsecamente conectada» con la capacidad de tener otros47. «... no existen personas que puedan tener el pensamiento de que Juan ama a lamuchacha y no puedan formar el pensamiento de que la muchachaama a Juan», explican Fodor y Pylyshyn48. Si una persona posee losrecursos conceptuales necesarios para pensar que las mapuritas huelen peor que los dingos, entonces, puesto que el pensamiento es sistemático, está obligada a poder pensar que los dingos huelen peor que

las mapuritas. Advirtamos que la sistematicidad y la productividadson fenómenos distintos: podemos aceptar la afirmación de que el pensamiento es sistemático aunque creamos que no es productivo.

El lenguaje humano es productivo. El número de oraciones gramaticales del español, por ejemplo, no tiene límite. Esto es fácil dedemostrar. Escojamos cualquier oración (verdadera), P, y procedamos como sigue: «P» es verdadera, «WP” es verdadera» es verdadera,«WT ’ es verdadera” es verdadera» es verdadera... Enseguida se hacen

inmanejables, pero todas son gramaticales (como que son verdaderas)y su número no tiene límite.

(Es  sistemático el lenguaje ordinario? Fodor y Pylyshyn piensanque sí.

Por ejemplo, no encontramos hablantes nativos que sepan decir que Juanama a María, pero no sepan decir que María ama a Juan. Si encontráramos a

45 Rumelhart, D. É., y McClelland, J. L., «PDP Models and General Issues in Cognitive Science», pp. 119-20.

46 Fodor, J.,  Psychosemantics, p. 148.47 Fodor, J.,  Psychosemantks, p. 149; Fodor, J., y Pylyshyn, Z., «Connectionism

and Cognitive Architecture: A Critical Analysis», pp. 33-41.48 Fodor, J., y Pylyshyn, Z., «Connectionism and Cognitive Architecture: A Criti

cal Analysis», p. 39.

Page 298: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 298/416

302 Inteligencia artificial Una introducción filosófica

alguien en este apuro, lo tomaríamos como indicio presunto de que no es unhablante nativo, sino un turista o algo así49.

En realidad, la cuestión de la sistematicidad del lenguaje ordinarioes menos directa que la de la productividad, porque no está claro aqué equivale la sistematicidad. La productividad es una propiedad delá lengua per se. Fodor y Pylyshyn no aclaran si la sistematicidad esigualmente una propiedad del lenguaje per se o si es más bien una relación entre el lenguaje y ciertos hablantes. Les corresponde aclararqué significa exactamente decir que un lenguaje es sistemático. Peroésta es una queja relativamente menor y no hay por qué insistir.

Pasemos ahora al argumento en favor de la HFSS. Supongamosque el pensamiento es productivo. ¿Cómo lo consigue el cerebro?Puesto que sabemos que el lenguaje es productivo, la explicación mássencilla es que el pensamiento sea lingüístico. Si cada uno de nuestros

 pensamientos es una oración de mentalés, entonces, en principio, podemos concebir un número ilimitado de pensamientos. El pensamiento es productivo porque lo es el mentalés. Si no queremos suponer que el pensamiento es productivo, tomemos la afirmación de quees sistemático. ¿Cómo lo consigue el cerebro? La misma historia: podemos aducir la sistematicidad del mentalés para explicar la sistematicidad del pensamiento. De cualquier modo tenemos un argumento enfavor de la existencia del mentalés50.

9.7. Valoración de los argum entos

Reducidos a su esencia, los argumentos de las secciones 9.4, 9.5 y9.6 vienen a afirmar que la única manera posible de explicar los fenómenos del caso (la productividad y sistematicidad del pensamiento,las paradojas de la intencionalidad y la capacidad fundamental de re

 presentación del cerebro) es postu lar un código simbólico interno.Una caricatura puede iluminar la debilidad de este tipo de argumentación. Fenómeno: Fido muerde a Bernardo. Una explicación posi

 ble: Fido cree que Bernardo tiene una extraña enfermedad que sólo

49 Fodor, J., Psych o semantics, p. 149.50 Fodor, J., «Fodor’s Guide to Mental Representation», pp. S9-90, y  Psychose-

mantles^   pp. 147-53; Fodor, J., y Pylyshyn, Z., «Connectionism and Cognitive Architecture: A Critical Analysis», pp. 33-41.

Page 299: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 299/416

¿Somos computadores? 303

un mordisco de perro puede curar. Inventar una explicación posiblees una cosa, y demostrar que es la correcta es algo muy diferente, yalgo hacia lo que ni siquiera apuntan los tres argumentos.

En mi opinión, Fodor y Pylyshyn tienen razón en mantener quelas paradojas de la intencionalidad dan cierto grado de apoyo a la ideade que el cerebro es capaz de formar varias representaciones diferentes del mismo hecho. Sin embargo, las consideraciones a que dan lugar las paradojas no tienden a mostrar que estas representacionessean oraciones de mentalés, y eso es lo decisivo. Puede que el cerebrosea capaz de formar diferentes representaciones del mismo hecho,

 pero esas representaciones no tienen por qué ser las cadenas de sím bolos postuladas por la HFSS.

Fodor y Pylyshyn intentan contrarrestar este escepticismo con lainsistencia en que la hipótesis del mentalés es la única explicación razonable de los fenómenos en cuestión. Pylyshyn la describe como «laúnica que queda a flote» y Fodor usa la broma «soy el único presidente que tenéis» como epígrafe51. El problema es, sin embargo, quequedan otras teorías a flote y no parecen menos prometedoras que la

hipótesis del mentalés. El siguiente capítulo está dedicado a una deesas teorías. Una muy discutida en los tiempos de Turing y vuelta a poner en candelero por Phil Johnson-Laird y Colin McGinn (entreotros) es la hipótesis de que los procesos cerebrales son representaciones analógicas52.

Un ejemplo simple de representación analógica es la maqueta tridimensional que hace un arquitecto de un edificio. Los rasgos deledificio real están representados por los rasgos correspondientes de

los elementos del modelo. Los ángulos del tejado están representados por las hojas de cartulina que representan el tejadó; el número yforma de las lunas de cristal de cada ventana están representados porel número y forma de los paneles de plástico adheridos a las cartulinas que representan las paredes, y así sucesivamente. Hay muchos ti

 pos diferentes de representaciones analógicas: modelos a escala de to

51' Pylyshyn, Z., Computation and Cognition, pp. 39, 63. La cita procede de McClelland, J. L., «The Basis of Lawful Behaviour: Rules or Connections?», p. 16. Fodor, J.,The Language o f Thought , p. 27.

52 Johnson-Laird, P.,  Mental Models', McGinn, C.,  Mental Content, El clásico delenfoque de los «modelos mentales» es The Nature o f Explanation, de Kenneth Craik, publicado en 1943. Véanse también Kosslyn, S, H.,  Image and Mind  y Ghosts in the  Mind's Machine; y Block, N., «Mental Pictures and Cognitive Science».

Page 300: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 300/416

das clases, mapas, dibujos, gráficos, y las imágenes de la retina, pormencionar unos pocos.

Los gráficos son un caso interesante. En la maqueta del arquitecto

el ángulo está representado por el ángulo, el número por el número yla forma por la forma, y en los mapas, la distancia por la distancia. Elejemplo de los gráficos pone en claro que la representación análogano siempre ha de ser de lo semejante por lo semejante. En un gráfico,la distancia en un eje puede representar la masa o la velocidad o la inteligencia de un objeto.

 No es fácil decir con precisión lo que tienen en común las representaciones analógicas. Sin embargo, la idea básica es obvia. Comodice McGinn, «en las [representaciones] analógicas, las propiedadesde los estados de cosas representados están de algún modo reflejadasen los rasgos de lá [representación]»53. En una representación analógica, los rasgos que representan los «representantes» varían de modoque reflejan o mimetizan o modelan la variación de los «representados»: más cuadritos de plástico significan más ventanas, un azul másoscuro en una carta marina significa agua más profunda, una mayor

distancia del 0 en el gráfico significa mayor inteligencia54.Las representaciones analógicas tienen diferencias llamativas con

las representaciones lingüísticas. Consideremos los mapas. El hechode que la carretera entre Londres y Leeds sea más larga que la carretera entre Londres y Birmingham está representado por el hecho deque una línea azul del mapa es más larga que otra. Como todo elmundo sabe, las líneas de las carreteras representan la longitud en losmapas por medio de su propia longitud, que varía en proporción a la

longitud de la carretera representada. Las oraciones, por el contrario,evidentemente no se representan de forma que varíen en su magnituden proporción a la magnitud de la propiedad representada. La cadenade símbolos «la carretera Londres-Birmingham tiene 200 kilómetros»es en realidad más larga que la cadena «la carretera Londres-Leedstiene 300 kilómetros», y si alargáramos esta última rellenándola deespacios blancos, eso no tendría ninguna importancia representacio-

nal. Para extraer información de una representación analógica hacefalta algo semejante a una escala, y este concepto es ajeno enteramente a las representaciones mediante oraciones.

304 Inteligencia artificial. Una introducción filosófica

53 McGinn, C., Mental Contenty p. 178.54 Para un análisis más completo del concepto, véase Lewis, D., «Analog and Digi

tal», y Haugeland, J., «Analog and Analog».

Page 301: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 301/416

¿Somos computadores? 305

A veces se alude a las representaciones analógicas llamándolasmodelos. Quizá el cerebro use modelos. Puede que las representacio-nes que tiene el cerebro del mundo externo sean analógicas y sean

manipuladas por procesos a su vez análogos a las manipulaciones quese pueden realizar físicamente sobre los objetos representados, talescomo rotarlos o doblarlos. (De manera parecida, el modelo del arqui-tecto se puede manipular mediante procesos análogos a las manipula-ciones que se pueden realizar sobre el edificio real: se pueden cortarnuevas puertas en las paredes del modelo, se pueden recolocar lostragaluces, etc.) Esta es una imagen del cerebro muy diferente de laque dibuja la HFSS: representaciones oracionales manipuladas me-diante procesos del mismo jaez que los de una máquina Von Neu-mann.

McGinn (siguiendo a Craik) ofrece este esquema del proceso deresolución de problemas en un cerebro analógico:

Primero, se «traduce» un estado de cosas externo a una representación analó-gica. En el caso más simple, esto entraña originar, en el nivel de la percep-ción, un modelo apropiado: el estado de cosas externo causa que el cerebroconstruya una simulación interna del estado de cosas. Segundo, el modelo esmanipulado por varios procedimientos y algoritmos que lo transforman, lorelacionan con otros modelos, operan experimentalmente sobre él. Estos

 procedimientos son, a su vez, análogos a otros procesos externos. Tercero,estas operaciones intérnas tendrán un resultado, o bien una acción (si el razo-namiento era práctico) o bien una nueva creencia (si él razonamiento era teó-rico). Éstas son las tres fases por las que pasa un ingeniero que hace un mo-delo de un puente y son las tres fases.que entraña para el cerebro resolver un

 problema por medio de sus modelos internos... El pensamiento orientado a problemas experimenta sobre representaciones analógicas originadas y alma-cenadas en el cerebro. Proyecta, por así decir, ensayos previos con copias oréplicas hechas en el cerebro5556.

Esta otra imagen posible puede ser más vaga incluso que la HFSS, pero es eso, una posibilidad?6.

El psicólogo Irving Biederman ha propuesto recientemente que

en la visión, en particular en el reconocimiento visual, el cerebro usa

55 McGinn, C ,  Mental Content , p. 180.56 Mucha gente ha señalado que el uso de modelos analógicos simplifica considera-

 blemente el problema del marco (capítulo 5). En un modelo analógico dinámico, la ac-tualización se consigue, hasta cierto punto, gratis, y la información sobre los cambiossubsiguientes se puede extraer mediante un proceso parecido a la observación.

Page 302: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 302/416

306 Inteligencia artificial, Una introducción filosófica

una especie de representación analógica conocida como representa-

ción geónica5758. Las unidades básicas de estas representaciones son los geones, que son volúmenes generalmente simétricos tales como cilin-

dros , bloques paralelepípedos, esferas, conos, cuernos, cuñas y lámi-nas rectangulares planas. La idea de Biederman es que es posiblereconstruir aproximadamente los objetos sobre los que se fijan nues-tros ojos mediante grupos de geones. Por dar unos cuantos ejemplossencillos, se puede construir aproximadamente una lámpara de mesamediante un cono truncado (que representa la pantalla) y un cilindro(que representa el pie), y una linterna se puede representar con un ci-lindro alargado (el cuerpo), otro cilindro más ancho y achaparrado(donde va la bombilla) y un pequeño paralelepípedo (el interrup-tor) 5S. (Dos lámparas de mesa de figura idéntica pero distinto tamañose pueden representar mediante dos grupos de volumen diferente)59.Los geones forman la base de un poderoso sistema de representación.Biederman estima que un sistema que use sólo 36 geones primitivostendría el potencial para representar 154 millones de objetos queconsten de tres o menos segmentos principales, cifra considerable-

mente superior al número real de objetos que un adulto puede reco-nocer.

Se pueden combinar representaciones geónicas para formar repre-sentaciones de escenas y objetos complejos. Una representación geó-nica de un objeto muy complejo, como una lanzadera espacial, se

 puede generar a partir de las representaciones geónicas de sus com- ponentes, disponiéndolos de modo que se obtenga un modelo de lasrelaciones espaciales entre los componentes.

Biederman observa que la fuerza del método geónico de repre-sentación deriva esencialmente de la misma fuente que el métodooracional.

En ambos casos, el poder de representación deriva del enorme número decombinaciones que surgen a partir de un número modesto de elementos básicos. En el habla las relaciones se limitan a ordenamientos por la dere-cha o por la izquierda (secuenciales). En el dominio visual hay un con-

 junto más rico de relaciones posibles que permite una capacidad de repre-

57 Biederman, L, «Recognition by Components: a Theory of Human Image Un-derstanding».

58 Biederman, L, ibidem, p. 130.59 Biederman, L, ibidem, p. 119.

Page 303: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 303/416

¿Somos computadores? 307

sentación más rica a partir de un número comparable de elementos básicos60.

En este contexto, uno de los aspectos más interesantes de la re- presentación geónica es que, como las representaciones oracionales, posee una estructura recursiva 61. Una representación geónica se de-fine como una colectividad de representaciones geónicas relacionadasespacialmente entre sí. Esto posee el mismo tipo de «circularidad»que la definición recursiva de «identificador» que di en la sección 4.2:el término «representación geónica» aparece en los dos lados de ladefinición. La «espiral recursiva» descansa en los geones mismos, que

son las representaciones geónicas más simples.Los sistemas de representación recursivos son productivos. Se

 pueden combinar los geones básicos para formar cantidades en prin-cipio ilimitadas de representaciones geónicas (de objetos reales e irrea-les). Además, las representaciones geónicas parecen ser sistemáticasen el sentido de Fodor. Si se poseen los recursos geónicos para repre-sentar un gato sentado encima de una persona, también tenemos los

recursos para representar una persona sentada encima de un gato. Elsistema geónico demuestra que los sistemas de representación analó-gicos pueden ser productivos y sistemáticos.

Cada uno de los tres argumentos en favor de HFSS invita a unarespuesta escéptica. La hipótesis del mentalés es una respuesta alenigma de la unión de la carne y el significado, pero no es la única

 posible. El cerebro podría forjar sus representaciones por medio demodelos mentales, no oraciones de mentalés. Se podrían explicar las

 paradojas de la intencionalidad postulando que el cerebro es capaz derepresentar el mismo hecho de varias maneras, pero esas representa-ciones podrían ser analógicas. Se puede dar cuenta de la productivi-dad y la sistematicidad mediante la hipótesis de que pensamos enmentalés, pero también con la hipótesis de que pensamos en un me-dio analógico.

60 Biederman, I., «Recognition by Components: a Theory of Human Image Un-derstanding», p. 116.

61 Michael Corballis hace esta observación {The Lopsided Ape, p. 222).

Page 304: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 304/416

308 Inteligencia artificial. Una introducción filosófica

9.8. El significado de «computador»

«Pero aunque el cerebro no fuera un manipulador de símbolos,

 podría ser un computador de otro género.» Esta es una apreciaciónnatural en este punto de la discusión, y es verdad, desde luego, que se

 puede ampliar el significado de la palabra «computador» de maneraque los manipuladores de símbolos sólo sean un tipo de computador.Me gustaría señalar los peligros de estos juegos de palabras.

Turing predijo en cierta ocasión que al cabo de cincuenta años elsignificado de la palabra «pensar» cambiaría tanto que «se podrá ha-

 blar de máquinas pensantes sin temer ser contradecido»62. Creo, aná-

logamente, que dentro de cien años, el significado de la palabra«computador» habrá cambiado tanto que se podrá llamar compu-tador al cerebro sin temor de ser contradecido. Los términos técnicoscambian de significado. Por ejemplo, los oficiales de marina a me-nudo llaman «radar» a los equipos de sonar, una extensión razonable,

 puesto que «ambos» realizan una función similar y se usan de manerasemejante (en los sentidos originarios de los términos, los equipos de

radar detectan los objetos distantes por medio de ondas de radio ylos de sonar por medio de ondas sonoras). Los sucesores de los com- putadores actuales retendrán, sin duda, el nombre «computador»,sean o no manipuladores de símbolos.

Sin embargo, eso no nos exime de la obligación de asignar, aquí yahora, un significado preciso a la palabra «computador». Es necesario

 para que la discusión no sea vaga y confusa. Al fin y al cabo, no aclaramucho decir que el cerebro es un computador en un sentido todavía

completamente oscuro de la palabra. En realidad, eso significaría sim- plemente que el cerebro es el cerebro. Si la hipótesis de que el cerebroes un computador es una afirmación definida, la palabra «computa-dor» debe tener un significado preciso.

El significado al que me he ajustado en este libro es el declaradoen el capítulo 4: un computador es un sistema universal de símbolos.Repasaré algunas alternativas con vistas a defender esta definición.

Una forma perfectamente legítima de hablar es decir que un com-

 putador es algo que computa en el sentido originario de la palabra,esto es, calcular. Así, un diccionario define un computador como«una calculadora, una máquina o aparato... para realizar cálculos es-

62 Turing, A. M., «Computing Machinery and Intelligence», p. 442.

Page 305: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 305/416

¿Somos computadores? 309

 pecialmente complejos» 63. Von Neumann favoreció esta definición.Señalaba que «una máquina computadora en sentido propio» es unamáquina capaz de realizar operaciones aritméticas64.

Si se define así la palabra «computador», es indiscutible que elcerebro humano es un computador, pues podemos hacer aritméticamental. Aparte de otras cosas, el cerebro es ciertamente un apara-to que puede hacer cálculos. Una victoria sin sangre, pero vana. Lacuestión de si el cerebro es un computador pierde todo interés si elsignificado de la palabra «computador» se amplía tanto que la cuestión se decide por nuestra simple capacidad de sumar dos y dos.

Quizá debería insistir en que no estoy polemizando con el diccionario. La definición del diccionario da una explicación correcta de la

 palabra «computador» en su sentido más general. Lo importante esque esta definición hace trivial la teoría de que el cerebro es un computador; de modo que quien crea que ésta es una teoría seria e interesante tiene que usar la palabra «computador» de una forma diferentey menos general.

Algunos autores modernos definen la computación, no como el

 procesamiento de cadenas de símbolos, sino como el procesamientode cualesquiera representaciones 65 (volviendo a la sección 9.4, las re presentaciones son aquellos estados de una máquina o un órgano quesirven para describir hechos acerca del mundo externo). Otros autores consiguen el7mismo efecto conservando la palabra «símbolo» enla definición de computación, pero con un significado más amplioque abarca cualquier tipo dé representación66. Estas propuestas padecen el mismo mal que la definición del diccionario: despojan la

afirmación de que el cerebro es un computador de gran parte de suinterés. Porque el enunciado dé que el cerebro contiene y procesa re

 presentaciones no dice sino que el cerebro se usa para razonar sobreestados de cosas posibles y actuales del entorno, o poco más. Lacuestión de si el cerebro es un procesador de representaciones o no (yun computador en este sentido) es, indudablemente, empírica: al fin y

65 Chambers Concise 20th Century Dictionary.64 Von Neum ann, J., The Computer and the Brain, p. 75.65 Véanse, por ejemplo, Patricia Churchland, Neurophilosophy, p. 9; Paul Church-

land, «Some Reductive Strategies in Cognitive Neurobiology», p, 281. Andras Pellio-nisz vitupera este cambio de terminología en «Oíd Dogmas and New Axioms in Brain

Theory».66 Anderson, J. A., e Hinton, G. E., «Models of Information Processing in the

Brain», pp. 29-30; Young, J. Z., Philosophy and the Brain , p. 139.

Page 306: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 306/416

310 Inteligencia artificial Una introducción filosófica

al cabo, los antiguos griegos pensaban que el cerebro no era más que

un refrigerador de la sangre, e incluso los conductistas de hace pocas

décadas decían cosas bastante raras sobre el cerebro. Sin embargo, esa

cuestión no es de las punteras en la investigación moderna del cere bro. El problema candente es si las representaciones que usa el cere

 bro son cadenas de símbolos de tipo oracional o algo completamente

distinto67.

Así, pues, lo que hace falta es una definición de la palabra «com putador» que logre dar un sentido no trivial a afirmaciones como

«los computadores pueden pensar» y «el cerebro humano es un com

 putador». Prefiero llamar «procesador de información» a cualquier

ingenio que procese representaciones, y reservar la palabra «computa

dor» para un ingenio que procese representaciones que consten de

cadenas de símbolos en el sentido originario: las cadenas composicio-

nales, estructuradas recursivamente, cuasi lingüísticas, descritas en el

capítulo 4. Entonces la pregunta de si el cerebro es o no un compu

tador evita la trivialización que sufre a manos, de las otras definiciones que he examinado, y el hecho relativamente incontrovertido de

que el cerebro crea y manipula representaciones se puede resumir enel enunciado de que el cerebro es un procesador de información.

Una salvedad importante. Sería ingenuo olvidar que el avance

arrollador del conocimiento científico ha acarreado la ruina de muchas recomendaciones terminológicas que en su día parecieron razo

nables. Es posible que la investigación futura muestre que la actividad

del cerebro es a la vez semejante y diferente de la manipulación de ca

denas de bits en aspectos sobre los que ahora ni siquiera podemos es

 pecular. En este caso, mi recomendación terminológica dejaría sinrespuesta la pregunta «¿el cerebro es un computador?». Igualmente,la pregunta de si la Tierra se mueve alrededor del Sol ha caído desde

Einstein en ese limbo, por más que una vez condujera a Galileo ante

la Inquisición.

En resumen, la HFSS es una conjetura provocadora y fascinante

que es en la actualidad objeto de una intensa investigación68. Toda

67 Aunque algunos filósofos desestiman la importancia del concepto de representa

ción. Por ejemplo, Stich, S., From Folk Psychology to Cognitive Science,

68 Algunas de las investigaciones más importantes hasta la fecha han tenido lugar

en el área de la adquisición del lenguaje. Para una revisión, véase Fodor, J., The Lan-

 guage o f Thought , cap. 3; Pinker, S., y Prince, A., «On Language and Connectionism:

Page 307: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 307/416

¿Somos computadores? 311

vía es pronto, pero no hay hasta el momento ninguna razón positiva

 para creer que el cerebro es —o es en parte— un computador. No

hay aún indicios empíricos netos en favor de la hipótesis, y los argu-

mentos filosóficos que hemos examinado no suministran mucha co-rroboración.

El próximo capítulo se ocupa de investigaciones que parecen

anunciar un tipo enteramente nuevo de máquina procesadora de in-

formación. Estas investigaciones rompen de raíz con el enfoque tra-

dicional de la IA. Las máquinas que se están desarrollando tienen unfuncionamiento muy diferente del de los manipuladores de símbolos,

y si en un futuro lejano se demostrara que son capaces de pensar, esono sería una verificación de la hipótesis del sistema de símbolos. Al

contrario, representaría el triunfo de un enfoque nuevo, todavía no

 bien comprobado, de la IA. La existencia en embrión de estos nuevos

 procesadores de información ha socavado dolorosamente la con-

fianza en la hipótesis de que el cerebro es un computador.

Analysis of a Parallel Distributed Processing Model of Language Acquisition»; Pinker,

S.,  Language Leam ability and Language Development ; Berwick, R. C., y Weinberg,

A. S., The Grammatical Basis o f Linguistic Performance; Language Use and Acqui-

 sition.

Page 308: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 308/416

Capítulo 10

UN NUEVO PUNTO DE PARTIDA PARALA IA: EL PROCESAMIENTO DISTRIBUIDOEN PARALELO

Las grandes colecciones de neuronas pueden, en efecto, pensar.Por tanto, quizá sea sorprendente que los investigadores de la IA ha-yan dedicado tanto esfuerzo a programar computadores disponiblesen el comercio y tan poco a construir e investigar redes de neuronasartificiales. En la Conferencia de Dartmouth se trató sobre las poten-cialidades de este enfoque —la «simulación neuronal», como se lellama a veces— para lograr la IA, pero durante años fue canónico en

la IA tradicional sostener que la simulación neuronal es una pérdidade tiempo. Los investigadores que se aproximaron a la IA en los años60 y 70 no veían mucho objeto a intentar construir un tipo entera-mente nuevo de máquina basada en el cerebro humano, poco com-

 prendido y prohibitivamente complejo, cuando estaba a mano elcomputador de Von Neumann, y además funcionaban programas pe-queños, pero impresionantes como el GPS, Shrdlu y Sam. En 1969Marvin Minsky y Seymour Papert sometieron a una crítica demole-dora la obra de un investigador que se tomó en serio la simulaciónneuronal, Frank Rosenblatt1.

1 Rosenblatt llamaba «perceptrones» a sus redes artificiales de neuronas (véanse sus Principles o f Neurodynamics).  En su libro  Perceptrons, Minsky y Papert mostraron

312

Page 309: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 309/416

Un nuevo punto de partida para la IA 313

De pronto, estas apreciaciones tradicionales sufren un ataquegeneralizado desde dentro. Un grupo de investigadores desilu-sionados del enfoque convencional de la IA han resucitado las

ideas de Rosenblatt y comenzado a experimentar con pequeñasredes de neuronas artificiales. Sus resultados son alentadores. Lasredes que ha construido el grupo despliegan una capacidad casimisteriosa para organizarse y, una vez organizadas, comportarsecomo si contuvieran programas de computador. Las redes operanmuy en paralelo y almacenan información de manera distribuida(véase la sección 9.2, donde están las explicaciones dé los térmi-nos  paralelo  y distribuido). El grupo ha bautizado su aproxima-

ción a la IA «Procesamiento Distribuido en Paralelo», PDP enabreviatura.1

que los mecanismos de Rosenblatt eran incapaces de calcular una clase particular de fun-ciones (las llamadas funciones linealmente inseparables). En esta clase caen muchas fun-ciones importantes, y él ámbito de la comunidad de la IA tomó este resultado como elepitafio del perceptrón. Parte del problema era que los ingenios de Rosenblatt sólo cons-taban de dos estratos de neuronas artificiales (se presentaba la entrada en un estrato y lasaüda’se leía en el otro). Minsky y Papert mostraron que si se insertaban entre ambosmás niveles de «neuronas», los ingenios resultantes podrían calcular funciones lineal-mente inseparables. Pero no se vio esto como la salvación de Rosenblatt, porque su algo-ritmo para ajustar las conexiones de las «neuronas» para garantizar las salidas correctas a partir de las entradas (conocido como procedimiento de convergencia del perceptrón)deja de ser fiable cuando se introducen los llamados estratos pcultos (véase nota 7), locual condujo a Minsky y Papert a condenar como «estéril» el proyecto de ios niveles in-termedios (p. 232). Los estratos ocultos se usan ahora tranquilamente en el procesa-miento distribuido paralelo, y la búsqueda de métodos sistemáticos para ajustar las mirí-

adas de conexiones en estos «perceptrones ampliados» es un área fundamental deinvestigación. En la tabla que sigue se da una función que no puede calcular el percep-trón de dos niveles. La idea es que se presenta como entrada del perceptrón el par I t I2, y

O es la salida buscada.

I, I2 O

1  1  0

1  0  1

0  1  1

0  0  0

Esta función tiene una importancia particular, pues representa la operación lógica bá-sica XO (o excluyeme). Un ejemplo de enunciado con XO es «usted puede reclamar o bien el descuento A o bien el descuento B»: el enunciado es falso si usted puede reclamarambos descuentos o ninguno, y es verdadero en los demás casos. Rumelhart, D. E., Hin-ton, G. E., y Williams, R. J., «Learning Internal Representations by Error Propagation», p. 321, describen una sencilla red para XO con una sola «neurona» oculta.

Page 310: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 310/416

314 Inteligencia artificial. Una introducción filosófica

La IA ha sido siempre un campo de grandes esperanzas y monu-mentales predicciones. El PDP no es una excepción. «Es verosímilque [el PDP] ofrezca el progreso más significativo de los últimos mi-

lenios en el problema mente/cuerpo», escribe el psicólogo e informá-tico Paul Smolensky2. (Hubert Dreyfus, como siempre pinchando elglobo, desinfla la exageración afirmando que no es verosímil que los

 próximos veinte años de investigación en PDP produzcan una redcon la capacidad intelectual de una babosa3.) Hasta la fecha, los éxi-tos del PDP han sido modestos, y en muchos sentidos más modestosque los de la IA tradicional. Las redes construidas hasta ahora sonminúsculas en comparación con el cerebro humano, y su actuación,aunque fascinante, es trivial cuando se la compara con la de organis-mos inferiores como la hormiga o la lombriz de tierra. La teoría ma-temática del funcionamiento de las redes PDP está aún en un estado

 primitivo, y la investigación de laboratorio entraña mucho juego deensayo y error con las enormes cantidades de conexiones que unenlas neuronas artificiales. El PDP está en su infancia. Sus defensoresconceden que «hay serios obstáculos que superar para que [el enfo-

que] pueda ofrecer... una potencia comparable a la de la computaciónsimbólica» (Smolensky otra vez4). Estará bien avanzado el siglo pró-ximo antes de que podamos juzgar la verdadera significación de estenuevo y emocionante desarrollo de la IA.

10.1. Las ideas básicas

Una neurona se considera una unidad que está activa o inactiva,;dispax*a o no dispara (sección 9.2). Dispara si a su vez dispara un nú-mero suficiente de neuronas conectadas con ella. Para aclarar los de-talles, consideremos una neurona muy simplificada con tres conexio-nes de entrada procedentes de otras neuronas (figura 10.1). Las tresfibras de entrada serán denominadas AB, AC y AD.

Se sabe que las conexiones neuronales tienen diferente «fuerza» (o«peso» o «factor de conductividad»). Ésta está determinada en parte

 por el diámetro de la fibra conectora y en parte por la composiciónquímica de la unión o sinapsis entre la fibra de salida de una neurona

2 Smolensky, R, «On the Proper Treatment of Connectionism», p. 3.3 Citado en The Economist , 29 de junio de 1985.4 Smolensky, P., «On the Proper Treatment of Connectionism», p. 2.

Page 311: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 311/416

Un nuevo punto de partida para la IA 315

FIGURA 10.1.  La neurona dispara una descarga por sus fibras de salida cuan-do la suma ponderada de sus entradas sobrepasa su umbral

y la fibra de entrada de la otra. Supongamos que la fuerza de las co-

nexiones de AB, AC y AD es, respectivamente, 1, 2 y 3. Esto signi-

fica, en efecto, que la conexión AC «amplifica» el desencadenamiento

de la actividad de la neurona C por un factor de 2 y AD «amplifica»el desencadenamiento de D por un factor de 3. Así, desde el punto de

vista de la neurona A, el efecto de que se ponga en marcha la neurona

C es doble que el de que se ponga en marcha la neurona B, y el de

que se ponga en marcha D es triple que el de que se ponga en marcha

la neurona B. Una forma simple de describirlo es que cuando B, C

Page 312: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 312/416

316 Inteligencia artificial. Una introducción filosófica

y D están activas, la entrada total de A es 6 «unidades de cuenta»:1 unidad de B, 2 de C y 3 de D. Si sólo están activas B y D, la entradatotal es 4, y así sucesivamente.

El umbral  de una neurona es la entrada mínima que hará que se ponga en marcha. Supongamos que el umbral de A es 4. Esto significa que A dispara si C está inactiva, pero B y D están activas, puestoque entonces la entrada total es 4. A dispara también cuando estánactivas todas, B, C y D (entrada total = 6) y cuando C y D están activas, pero B inactiva (entrada total = 5). Sin embargo, si B y C estánactivas y D inactiva, la entrada total, 3, es inferior al umbral y la neurona no dispara.

Se sabe que algunas conexiones neuronales son inhibitorias. Tienen exactamente el efecto contrario al de las conexiones que acabo dedescribir (que se llaman excitatorias). Para ver cómo funcionan, su

 pongamos que AC es ahora una conexión inhibitoria de fuerza 2. Siestán activas B y D, pero no C, la entrada total es 1 + 3, por lo que laneurona A dispara (el umbral de A sigue siendo 4). Sin embargo, si B,C y D están todas activas, la entrada total es 1 + 3 - 2, donde el «- 2»

es la contribución inhibitoria. Puesto que la entrada total ahora es inferior al umbral, la neurona no dispara.

 Ejercicio rápido

Sea 2 el umbral de A. Como antes, AB es excitatorio, con fuerza 1; AC es inhibitorio, con fuerza 2, y AD excitatorio, con fuerza •.¿Dispara A cuando

• B está inactiva, C está inactiva y D está activa?• B está inactiva, C está activa y D está activa?• B está activa, C está activa y D está activa?

(Las respuestas se dan en la nota5.)

 Las redes PDP 

Los bloques constituyentes básicos de una red son unidades sim ples del tipo de los interruptores que están activas o inactivas. Éstas

5 Sí; no; sí.

Page 313: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 313/416

U n nuevo p u n to de p artid a para ía IA 317

son las neuronas artificiales. Una red consta de un cúmulo densa-mente interconectado de estas unidades. Algunas conexiones son ex-citatorias y algunas inhibitorias. Cada conexión tiene una fuerza es-

 pecífica y cada unidad tiene un umbral.En cierto sentido, estas redes operan de una forma extremada-

mente simple. Lo único que ocurre es que las unidades mismas se ac-tivan o desactivan en respuesta a los estímulos que reciben de sus ve-cinas. Cuando la entrada total que recibe una unidad de sus vecinasiguala o excede su umbral, se activa, y tan pronto como la entrada to-tal cae por debajo del umbral, se vuelve a desactivar. Este sencillo

 principio de operación lleva a una conducta global grotescamentecomplicada. Puesto que todas las unidades están interconectadas, di-rectamente o a través de unidades intermedias, todas influyen enotras y los patrones de interacción son tan complejos cono las rutasde las conexiones (véase la figura 10.2). Cuando cualquier unidadsalta a un estado de activación o de inactividad, los efectos se dejansentir en toda la red, las olas de la excitación y de la inhibición causanque otras muchas unidades se enciendan o se apaguen. La red es una

colmena rumorosa de interacciones paralelas, donde las unidades cau-san que unas enciendan y apaguen a las otras frenéticamente.

Predecir la conducta de una red de sólo unas cuantas docenas deunidades es una tarea temiblemente complicada. Para hacerse cargode la complejidad de7la situación, imaginemos una docena de bolas de billar rodando por una mesa. Como las bolas chocan, influyen en elmovimiento de las demás, directa o indirectamente, y, a través de unacadena de colisiones, la influencia puede incluso, mediante un bucle,

afectar a su propio movimiento. Es bien sabido que las matemáticasde situaciones semejantes tienen la propiedad de inspirar horror.

 Entradas y salidas

Imaginemos que las unidades de la red están dispuestas en estra-tos (figura 10.2). Las unidades del estrato superior o de entrada están

 preparadas de forma que el operador las puede «fijar» en posición ac-tiva o inactiva, y con ello sujetar su tendencia a cambiar de estado enrespuesta a la actividad de sus vecinas. Para «computar» con una red,se fijan las unidades del nivel superior en un patrón de activación ódesactivación. Este patrón es la entrada. Las repercusiones de esta

 perturbación se transmiten a lo largo de la red en un ciclo tras otro de

Page 314: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 314/416

318 Inteligencia artificial. Una introducción filosófica

Estratodeentrada

Estratos

ocultos

Estratodesalida

1r

Fi g u r a   10.2. Conexiones entre los estratos de neuronas artificiales en unared PDP

actividad paralela. La reacción violenta amaina gradualmente y la red

acaba por instalarse en un estado estable y amortiguado. Dicho meta-

fóricamente, la red se tranquiliza poco a poco según va descubriendo

la manera de vivir en armonía con la entrada, hasta que por último

cristaliza en una configuración determinada, con algunas unidades

 permanentemente activas y otras permanentemente inactivas. La red

«encuentra» el estado en el que las demás unidades viven en equili-

 brio con el estrato fijo de la entrada. Una vez que la red se ha acomo-

dado a la entrada, la salida se lee en el estrato inferior. La salida es, si

 podemos decirlo así, uno de los «bordes» del patrón estable en que

Page 315: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 315/416

U n nuevo pu nto de par t ida para la IA 319

cae la red. Se describe una aplicación significativa de este procedimiento computacional en la sección 10.2.

En la práctica, un patrón dado de entrada es capaz generalmente

de producir varios estados estables distintos: el más «tranquilo» y varias «treguas incómodas», estados lo bastante estables para impedirque la red busque una forma más armoniosa de acomodarse a la entrada. Si una red se instala en uno de esos estados de compromiso se«colgará» y nunca producirá la salida deseada. Para evitar que estoocurra se puede disponer que las unidades operen sobre una base

 probabilística: una unidad puede activarse o no cuando la entradatotal que recibe excede su umbral, y la probabilidad de que lo hagadepende de en cuánto supera la entrada el umbral. Este «ruido defondo» tiene la virtud de sacudir la red para sacarla de los estados decompromiso en que pueda caer. Geoffrey Hinton (inventor de untipo de red PDP conocido como máquina Boltzmann) ha acuñadouna intuitiva imagen para describir este proceso de sacar la red de susestados de compromiso6. Imaginemos una bola que rueda sobre una

 placa de metal en la que se han cortado varias estrías. Una es un hoyo

hondo, que representa el estado estable óptimo, y el resto son pequeñas ranuras superficiales apenas lo bastante profundas para atrapar la bola. Hay posibilidades de que la bola ruede hasta una de estas ranuras someras y se quede, sin alcanzar la estría más profunda. Sin em

 bargo, si continuamente se hace vibrar la placa —el equivalente deañadir «ruido» al sistema— la bola saldrá de las ranuras superficialesy acabará por caer en una honda.

 Las conexiones adecuadas

Las conexiones entre las unidades, y sobre todo sus fuerzas, desempeñan un papel crucial para determinar la conducta de la red. Elcambio de la fuerza de una sola conexión puede lanzar una red estabilizada a un estado de actividad frenética. Un operador puede configurar la salida de una red a partir de una entrada determinada si modificalas fuerzas de las conexiones (puesto que si se alteran las fuerzas, lared tiene que instalarse en un estado diferente para llevar una convivencia estable con la entrada). Disponer una red para que realice unatarea dada es cuestión de atinar con la fuerza precisa de cada conexión

6 Hinton, G. E., «Learning in Parallel Networks», pp. 267-70.

Page 316: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 316/416

320 Inteligencia artificial.. U n a in trod ucción filosófica

individual* Como les gusta decir a los investigadores del PDP, el co-nocimiento de una red «está almacenado en la fuerza de las conexio-nes». (A menudo al PDP se le llama simplemente «conexionismo».)

 Entrenamiento de una red 

El método usado más comúnmente para disponer las redes paratareas específicas es un proceso cíclico de ajuste conocido como en-trenamiento. Como ejemplo, consideremos la tarea de invertir un pa-trón de entrada; esto es, recrear el patrón de entrada en orden inversoen las unidades de salida (figura 10.3). Se eligen al azar unos cin-cuenta patrones de entrada con vistas al entrenamiento. El operadorfija las unidades de entrada en el primero de estos patrones y deja quela red se instale en un estado estable. (Puesto que en esta fase la redestá desentrenada, la salida que obtiene el operador seguramente notendrá relación con el patrón deseado.) Después el operador toca los

 botones que ajustan las fuerzas de las conexiones a lo largo de la red.

Diré algo más sobre cómo funciona esto dentro de un instante. Se re- pite este proceso con los demás patrones de la muestra. Luego, em- pleando los mismos patrones, el operador repite el ciclo una y otravez. En el experimento que describe la próxima sección fue necesariorepetir el ciclo casi 200 veces.

Estrato deentrada

Estrato desalida

FIGURA 10.3.  Inversión de un patrón de entrada

Page 317: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 317/416

U n nuevo punto de par t ida para la IA 321

La clave del procedimiento de entrenamiento es, claro está, qué botones se tocan para ajustar la fuerza de las conexiones de la red. Heaquí los detalles. Una vez la red se ha instalado en un estado estable,

se comparan una por una las unidades de salida con el patrón de salida deseado. Si una unidad de salida que debería estar activa estáinactiva, se presiona un botón para aumentar ligeramente las fuerzasde las conexiones excitatorias que llegan a esa unidad procedentes deotras unidades activas. Eso significa que la próxima vez que se dé a lared el mismo patrón de entrada será más probable que esa unidad seactive (puesto que un aumento de las fuerzas de estas conexiones

 produce un incremento de la entrada total que la unidad recibe de susvecinas). Igualmente, si una unidad de salida que debería estar desac-tivada está activa, se aprieta un botón para disminuir ligeramente lasfuerzas de las conexiones excitatorias que le llegan desde unidades activadas. (En realidad esto lo hace con un computador, y no a mano:los botones son un recurso explicativo). Se producen los mismosefectos fortaleciendo o debilitando las conexiones inhibitorias, y elevando o reduciendo los umbrales de las unidades. En la práctica se

usa una mezcla de ajustes.Cuando una red contiene estratos intermedios entre los de entraday salida («estratos ocultos», como los llaman) el número de combinaciones posibles de ajustes es descomunal. Un área importante de investigación en PDP Consiste en idear «algoritmos de aprendizaje» paraestas redes; esto es, hallar fórmulas que seleccionen combinacionesefectivas de ajustes. Hasta ahora se han descubierto pocos algoritmos,y se cree que su aplicación es limitada, aunque el progreso en el PDP

depende decisivamente de avanzar en este terreno7.

7 El algoritmo descrito en el párrafo anterior es esencialmente el procedimiento deconvergencia del perceptrón clásico de Rosenblatt (véase nota 1). Una generalizaciónsencilla que se puede usar cuando hay n estratos ocultos es repetir el procedimiento n + 1veces, empezando por el nivel de salida y retrocediendo a través de los estratos intermedios hasta llegar al de la entrada. Esto se conoce como propagación retroactiva. El procedimiento de convergencia del perceptrón es universal, en el sentido de que se puede usar

 para configurar un perceptrón de dos estratos que calcule cualquier función que puedancalcular estos ingenios. Se sabe que el algoritmo de propagación retroactiva no es universal [ésta es la base del prematuro juicio de Minsky y Papert de que el enfoque de los estratos ocultos es «estéril» (nota 1)]. En el momento actual no está claro cuáles son los límites del uso de este algoritmo. La escala es un problema prominente: es dudoso que se

 pueda usar el algoritmo para configurar una red muy grande en un tiempo razonable. (Sedescriben algunos estudios empíricos del algoritmo en Rumelhart, D. E., Hinton, G. E,y Willliams, R. J., «Learning Internal Representations by Error Propagation».)

Page 318: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 318/416

322 Inteligencia artificial- U na introd ucc ión filosófica

Lo' llamativo es que, una vez acabado el entrenamiento, la red puede invertir no sólo los patrones de la muestra, sino patrones quenunca se ha encontrado antes. A partir de los ejemplos de la muestra,

la red aprende el principio general de la inversión. Cada una de lasinversiones de la muestra de entrenamiento plantea sus propias exigencias a las conexiones de la red y, así, cada paso del ciclo de . entrenamiento empuja ligeramente las fuerzas de las conexiones endirecciones ligeramente distintas. El efecto de repetir el ciclo de entrenamiento muchas veces es crear un sistema de fuerzas de conexiones que vale para todas. La mera repetición pone a punto una confi

guración de fuerzas que se acomoda a las diferentes necesidades decada inversión de la muestra. Mientras la muestra de entrenamientocontenga la diversidad suficiente para representar todas las exigenciasque pueda plantear a las conexiones cada inversión, esta configuración de fuerzas permitirá a la red invertir patrones de entrada que no

 pertenezcan a la muestra.Vale la pena destacar que el procedimiento tde ajuste de las fuerzas

de las conexiones no incorpora «inteligencia». Si una unidad que de

 bería estar activa está inactiva, el procedimiento se limita a localizarlas conexiones excitatorias activas que conducen hasta esa unidad ymecánicamente aumentar la fuerza de cada una de ellas en la mismacantidad (y al contrario las conexiones inhibitorias). El procedimiento es invariable en todas las tareas de aprendizaje. Supongamosque los patrones de salida en el entrenamiento no deben ser los inversos, sino los conversos de los patrones de entrada; esto es, el resultado de reemplazar cada «activo» del patrón de entrada por un «inac

tivo» y cada «inactivo» por un «activo». El entrenamiento con estamuestra dará a la red la capacidad de formar conversos en vez de inversos, sin ningún cambio en los procedimientos de ajuste.

Los investigadores del PDF insisten en que esto tiene mucho mérito. Una crítica dirigida a menudo contra los programas tradicionales de IA es que toda su «inteligencia» es de segunda mano, un pálidoreflejo de la inteligencia humana que requiere analizar el problema einventar las reglas que llevan al computador a la solución. Las redesPDP, por el contrario, parten de cero. Puede que la inversión sea unatarea trivial, pero por lo menos la red aprende a hacerla sin que leayude un programador. Puede que estas redes que se organizan solasnos ofrezcan una visión muy simplificada de los mecanismos quesubyacen a nuestra capacidad de aprender.

Page 319: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 319/416

10.2. Lecciones de inglés

U n nuevo punto d e partida para la IA 323

 Ni con la mejor voluntad del mundo es fácil dejarse impresionar

con la noticia de que las redes PDP son capaces de aprender cosascomo crear el inverso o el converso de la entrada. Esta sección des-cribe algo más emocionante.

Los campeones de la revolución PDP, James McClelland y DavidRumelhart, han entrenado una red para que produzca los tiempos pretéritos de los verbos ingleses8. La red es capaz dé contestar correctamente en verbos que no ha encontrado durante el entrenamiento? e incluso cuando el verbo no es regular, la red da a menudocorrectamente el pretérito (por «regular» se entiende el verbo cuyo

 pretérito se forma añadiendo «ed» a la raíz del verbo:  push/pushed , pull/pulled).  Cuando a la red entrenada se le presentó por vez primera el verbo  guard , respondió  guarded ; y, lo que es más llamativo,contestó wept  cuando por primera vez tropezó con weep;  respondióclung  a cling  y dripped  a drip (obsérvese la «p» doble).

Un problema básico al que se tuvieron que enfrentar Rumelhart y

McClelland mientras planeaban el experimento fue el de representarlos verbos ingleses de manera asequible para la red. Les llevó dosaños encontrar un método que sirviera. Este gran gasto de tiempo ycavilaciones ilustra la dificultad del PDP. Los iniciadores de la computación simbólica tuvieron pocos problemas para idear un sistema general de conversión de palabras y otras informaciones a una formaque pudiera usar el computador: el método habitual de asignar códigos binarios a las letras del alfabeto, etc. Por el contrario, uno de los

aspectos más espinosos de la investigación en PDP es inventar métodos para presentar información a las redes. El método que usaronRumelhart y McClelland es en realidad extremadamente restringido.Antes de darles un uso más serio a las redes PDP hay que ingeniarsistemas generales y poderosos de representación.

Voy a pasar por alto los embrollados detalles del método de Rumelhart y McClelland. En líneas generales, los verbos se analizan enconjuntos de rasgos fonéticos especiales (llamados «rasgos Wickel»9).Cada una de las unidades de los estratos de entrada y de salida (hay

8 Rumelhart, D. E., y McClelland, J. L., «On Learning the Past Tenses of EnglishVerbs».

9 Por el lingüista Wickelgren. Para un tratamiento completo, véase la referencia anterior, pp. 233-9.

Page 320: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 320/416

324 Inteligencia artificial. U na in trodu cció n filosófica

460 en cada nivel) se emplea para representar un rasgo. Los experimentadores fijan en activa o inactiva cada unidad de entrada segúnesté o no presente el rasgo fonético que representa en el verbo con

siderado.El entrenamiento de la red comenzó con una mezcla de diez ver

 bos regulares e irregulares. También los niños comienzan por aprender de memoria un pequeño manojo de pretéritos, y RumelKárty McClelland eligieron deliberadamente una muestra típica del re

 pertorio infantil inicial de pretéritos, verbos como carne, got ,  gave, looked , needed, took   y went. El entrenamiento consistió en presentar la raíz de un verbo (come, go,  etc.) al estrato de entrada, com

 parar luego las salidas reales con las deseadas y ajustar las fuerzas delas conexiones como se ha dicho en la sección anterior. La red fue ca

 paz de producir sola los tiempos pretéritos después de exactamentediez ciclos de entrenamiento (esto es, diez ciclos de exposición a lamuestra).

Después de esto, añadieron aproximadamente 400 verbos a lamuestra (de los que más o menos el 80 por 100 eran regulares). La red

necesitó 190 ciclos de entrenamiento para dominarlos. En esta fase lared fue capaz de responder a verbos que no había encontrado nunca,y acertó kept  a partir de keep y clung  a partir de cling . Durante el entrenamiento, las conexiones de la red adquirieron la relación «añadir~ed» y las más sutiles relaciones que existen entre la entrada y la salida en el caso de los verbos irregulares. La adquisición de este conocimiento por parte de la red fue el resultado exclusivo de repetidosajustes mecánicos de las fuerzas de las conexiones, y el experimento

es un bonito ejemplo de una máquina que «aprende sola». Pero la redsólo acertaba en el 70 por 100 de sus respuestas, aproximadamente.Algunos de sus fallos más clamorosos fueron  squawked   a partir de

 squat, shipped   a partir de  shape  y membled   a partir de mail . Estoserrores, en particular, están producidos por lo que se llama«mezclar» i0. Un ejemplo menos extremo de formación de una mezcla es «ated»  a partir de las respuestas «ate»  y «eated ». Las redes

PDP son proclives a cometer errores de esta naturaleza.Mientras «crecía», la red cometió algunos de los errores que cometen los niños con los verbos. Después de las diez primeras sesiones,

10 Para un estudio de la «mezcla», véase Pinker, S., y Prince, A., «On Language andConnectionism: Analysis of a Parallel Distributed Processing Model of Language Acquisition», p. 136-45.

Page 321: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 321/416

U n nuevo pu nto de par tida para la IA 325

la.red era capaz de formar correctamente el pasado de come  y  go  —como los niños pequeños—, pero cuando empezó a aprender lamuestra más amplia, comenzó a regularizar más de la cuenta, y a producir respuestas como comed , goed  y wented . Con el tiempo se debilitó la adhesión al principio «añadir -ed»  y la red volvió a carne  ywent* Es probable que la semejanza con los niños no tenga ningunasignificación. La sobrerregularización se produjo debido a la transiciónde la muestra inicial, que sólo contenía dos verbos regulares, a unamuestra en que predominaban los verbos regulares. No hay datos deque la sobrerregularización de los niños esté también precedida por un

gran cambio en la proporción de verbos regulares que encuentran11.Este experimento de apariencia inocente constituye, en realidad,un serio reto para el punto de vista ortodoxo. Entre los científicoscognitivos siempre ha sido muy popular la teoría de que el cerebro

 principalmente inicia y controla la conducta siguiendo reglas (sección 5.5), y las reglas lingüísticas siempre han sido uno de los ejem

 plos favoritos. La red, sin embargo, no emplea reglas para producirsu salida. El concepto de programa es enteramente extraño al modo

como opera la red (la sección 10.4 abunda en esto). La consecuencia para la teoría ortodoxa es clara: es muy posible que seguir inconscientemente una regla no desempeñe ningún papel en la produccióndel habla humana. Si la red no necesita un programa, entonces quizátampoco lo necesite el cerebro humano.

10.3. ¿Despertar de una pesadilla?

Uña de las obsesiones principales de la IA tradicional es la dificultad de programar computadores para que reconozcan que objetos diferentes pero semejantes son ejemplos del mismo tipo de cosa. A veces se le .llama el problema de la clasificación. Fijémonos en la letra a escrita por distintas manos. Las dos difieren, quizá drásticamente,

 pero es posible que la mayor parte de la gente que usa alfabeto latino

sea capaz de reconocer que los dos patrones de marcas de tinta soninstancias de la misma letra, sobre todo si viene en su ayuda un contexto circundante. Los computadores, en cambio, son extremadamente torpes en estas tareas.

11 Pinker, S., y Prince, A., «On Language and Connectionism: Analysis of a ParallelDistributed Processing Model of Language Acquisition», pp, 136-45.

Page 322: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 322/416

326 Inteligencia artificial. U na introd uc ción filosófica

La pesadilla de un programador sería intentar escribir un con-

 junto de reglas de reconocimiento que incorpore las descripciones deun ámbito razonablemente amplio de las variaciones que puede sufrir

la letra a. Echemos un vistazo a la figura 10.4 para comprobarlo. Otra pesadilla dentro de la pesadilla es que un conjunto de reglas que abar-cara las aes y las aes mayúsculas cogería también un buen puñado deues, haches mayúsculas, oes, bes, des y efes mayúsculas y es.

Se ha reconocido hace tiempo que los problemas que subyacen alreconocimiento de letras son de los más rebeldes de la IA, (Comodijo una vez Douglas Hofstadter, «el problema central de la IA es:¿qué son la a y la í ?» 12.) En áreas muy diversas se cosechan los mis-mos problemas, y es esta ubicuidad lo que hace del problema de laclasificación uno de los fundamentales de la IA. ¿Se puede programarun computador para que reconozca mi cara sonriendo en una fiestacuando, hasta el momento, sólo me ha visto fruncir el ceño ante su

F i g u r a   10.4.  Algunas variantes de la letra «A» que se encuentran en el.ca-tálogo de Letraset 

n  Hofstadter, D.,  Metamagkal Themas: Questing fo r the Essence o f Mind and Pat-tern, p. 633.

Page 323: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 323/416

Page 324: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 324/416

328 Inteligencia artificial. Una introducción filosófica

Los programadores han hallado que el contexto es extremadamente duro de roer y muchos investigadores creen que esta resistencia es una maldición lanzada sobre la IA por un distraído John

von Neumann. Veamos cómo es esto. Imaginemos que intentamos leer una palabra escrita con una letra inusual y extraña. Lonatural es considerar cada letra en el contexto de la palabra: paradójicamente, usamos las letras para identificar la palabra y la palabra para identificar las letras. En un frenesí de actividad en paralelo, las hipótesis sobre las letras individuales interactúan conlas conjeturas sobre la palabra. Las conjeturas se obstaculizan y

se refuerzan entz*e' sí hasta que surge un patrón estable de hipótesis y de pronto queda claro cuál es la palabra. Una máquina Von Neumann, con su modo secuencial de operación, puede, comomucho, ofrecer una torpe parodia de este género de cosas. Las redes PDP, en cambio, son procesadores paralelos por excelencia,y puede que se demuestre que son. el sustrato físico ideal para eltipo de resolución de problemas que consiste en dejar que equi

 pos rivales de hipótesis forcejeen simultáneamente hasta que surja

una ganadora.Los primeros datos de laboratorio indican que las redes PDP

 pueden, de un golpe, conjurar la maldición y resolver el problema de

la clasificación. En estudios piloto se han producido redes maestrasen reconocer palabras escritas y habladasI5. Las redes explotan al máximo el contexto. Todas las letras o sonidos de la palabra se examinansimultáneamente, y las «conjeturas» sobre sus identidades individuales caminan en paralelo y en mutua influencia.

Sonrisas y ceños

Igor Aleksander, profesor de tecnología de la información en elImperial College de Londres, ha conseguido construir una red quereconoce caras humanas. Aunque Aleksander no trabaja bajo la ban

15 McClelland, J. L., Rumelhart, D. E., y Hinton, G. E., «The Appeal of Parallel Dis

tributed Processing», pp. 20-23 [ed.cast., «El atractivo del Procesamiento Distribuido enParalelo», en  Introducción al Procesamiento Distribuido en Paralelo, Madrid, AlianzaEditorial, 1995]. Rosenberg, C. R., y Sejnowski, T. J., «Parallel Networks that Learn toPronounce English Text»; Elman, J. D., y Zipser, D., «Learning the Hidden Structure ofSpeech».

Page 325: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 325/416

Un nuevo punto de partida para la IA 329

dera del PDP, su investigación de redes de «neuronas» estilizadastiene muchos puntos de contacto con el PDP 1617 .

Durante su entrenamiento, el Wisard (como llama Aleksander a

su máquina) escruta la cara de una persona a través del visor de su televisión y aprende gradualmente las pautas características de alteración que sufre una cara cuando la persona habla, sonríe, etc. Despuésde un entrenamiento suficiente, el Wisard identifica con fiabilidad ala persona en los encuentros subsiguientes, a pesar de los cambios sutiles en la apariencia y la expresión. Como las otras máquinas que hedescrito, el Wisard tiene la capacidad de generalizar a partir de lamuestra empleada en el aprendizaje. Esto le permite analizar las ex

 presiones de perfectos desconocidos y decir si están sonriendo ofruncen el ceño. El entrenamiento adecuado permite al Wisard reconocer muchos tipos de objetos y sus posibilidades industriales sonconsiderables. (Aleksander ha construido redes de neuronas artificiales desde mediados de los años sesenta, y cuando las primeras olas deentusiasmo por el PDP empezaban a barrer los laboratorios de IA de

 Norteamérica, Aleksander calladamente obtenía un contrato para po

ner el Wisard en producción comercial.)

10.4. La diferencia con los computadores

Los computadores, como, ya sabemos, actúan con símbolos. Los programas son listas codificadas simbólicamente de instrucciones, lainformación se almacena en la memoria bajo la forma de símbolos y

cada paso de una computación consiste en una operación sobre unacadena de símbolos. Por el contrario, el procesamiento que tiene lugar en la red de los pretéritos, o en la red de inversión de la sección10.1, consiste en la excitación y la inhibición de unas unidades sobreotras, y no en la manipulación regida por un programa de expresiones simbólicas almacenadas. (Como dicen McClelland y Rumelhart,«la moneda con que trafican nuestros sistemas no son los símbolos,sino la excitación y la inhibición» í7.) Las redes simplemente «se agi

u  Aleksander, I., y Burnett, P., Thinking Machines: The Search for Artificial Intelli genceycapítulo 9. Véase también Aleksander, I. (comp,), Neural Computing Architectu-res: The Design of BrainLike Machines.

17  Rumelhart, D. E., y McClelland,]. L., «PDP Models and General Issues in Cognitive Science», p. 132 [ed. cast., «Modelos PDP y cuestiones generales de la ciencia cogni-tiva», en Introducción al Procesamientoop. cit.].

Page 326: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 326/416

330 Inteligencia artificial. Una introducción filosófica

tan» hasta que «se sienten cómodas» con la entrada, y tienen másen común con una gota de metal fundido que se va solidificandoque con los pasos que dan un VAX o un IBM cuando siguen un

 programa.Advirtamos que se puede considerar la red de inversión como un

manipulador de bits (aunque carente de programa). Una cadena de bits es, al fin y al cabo, una sucesión de activaciones y desactivacionesy, por tanto, podemos entender la red como un ingenio que transforma unas cadenas de bits en otras. En efecto, es posible usar unacolección coordinada de redes para simular una máquina Von Neumann (se entrena una red para realizar cambios, otra para realizarcomparaciones por la derecha, y así sucesivamente). Es importante elhecho de que se puedan usar redes para sustentar computacionessimbólicas, y volveré a él en la sección 10.10. Lo que aquí me gustaría

 poner de relieve es que, aunque se puedan usar las redes como mani puladores de símbolos, en general son harina de otro costal. Sería uncompleto error pensar que el PDF no es más que la exploración deun tipo nuevo de manipulador de símbolos.

Para no complicar el cuento, hasta ahora sólo he descrito un tipoespecial de unidad: el modelo activo/inactivo. El modelo más general,hasta ahora olvidado, puede adoptar un rango de niveles de actividadque varían entre completamente activo  y completamente inactivo 18.Así, el nivel de actividad de una unidad en un momento particular podría ser 0,75 (dicho metafóricamente, la unidad está operando pordebajo del pleno volumen). El nivel de actividad depende de la cantidad de entrada que la unidad recibe de otras unidades. Por ejemplo,

el nivel de actividad puede saltar de 0 a 0,5 una vez que la entrada total alcanza el umbral de la unidad y luego ascender sostenidamentehasta 1 si la entrada continúa aumentando (figura 10.6). Los patronesde entrada y de salida de una red compuesta de unidades tales noconstarán de cadenas de ceros y unos, sino de secuencias de númerosreales. Un ejemplo de los patrones de salida posibles de una red concuatro unidades de salida es <0,6; 0,4; 0,8; 1,0>. Evidentemente, todo

 parecido con las cadenas de bits se ha desvanecido. (En términos matemáticos, las redes toman como entrada un vector numérico y producen como salida otro vector numérico. Podemos, pues, considerarlas redes como ingenios que realizan transformaciones de vectores.)

18  Rumelhart, D. E., Hinton, G. E., y McClelland, J. L., «A General Framework forParallel Distributed Processing», pp. 45-54.

Page 327: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 327/416

Un nuevo punto de partida para la IA 331

FIGURA 10.6.  El nivel de la salida depende de la cantidad de entrada que launidad reciba de otras unidades

La diferencia entre una máquina Von Neumann y las redes del

 pretérito y de la inversión es clara como el agua. Sin embargo, no esfácil formular un criterio neto que exprese en general la diferencia en-tre las redes PDP y los manipuladores de símbolos, pues recordemosque la clase de los manipuladores de símbolos ha quedado un pocoindeterminada. Lós defensores de la HFSS conceden que las opera-ciones fundamentales de manipulación de símbolos del cerebro pue-den diferir de maneras radicales —y por ahora desconocidas— de lasoperaciones fundamentales de una máquina Von Neumann. Igual-

mente conceden que el código simbólico del cerebro puede ser muydistinto de todo lo que ahora conocemos.

Dicho de otro modo, no hay un criterio neto y universal para dis-tinguir entre una red que se está usando como manipulador de sím- bolos y otra que no. Lo mejor que se puede hacer —y eso basta— escitar ejemplos paradigmáticos de estructuras simbólicas (códigos bi-narios composicionales recursivos, fórmulas del cálculo de predica-dos, etc.) y ejemplos paradigmáticos de operaciones fundamentales

de manipulación de símbolos (cambiar la cadena que está en una lo-calización de almacenamiento dada un bit a la izquierda, comparardos cadenas y colocar un marcador en una localización de almacena-miento dada si son idénticas, sustituir una variable ligada por unaconstante) y después juzgar una arquitectura nueva en términos de sugrado de semejanza, si lo tiene, con los paradigmas.

Page 328: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 328/416

332 Inteligencia artificial. Una introducción filosófica

Comparemos el famoso problema del parecido de familiaI9. Como todo el mundo sabe, los miembros de una familia (la de Wittgenstein, por ejemplo) a menudo se parecen entre sí más que a los miem

 bros de una familia no emparentada (los Sartre, digamos). ¿Es posibleformular un criterio nítido que encierre de una vez por todas los rasgos que distinguen a los Wittgenstein de los Sartre? Probablementeno. Los parecidos de familia no se prestan a eso.

Como dije en el capítulo anterior, la teoría de que el cerebro es unmanipulador de símbolos alcanzó la fama entre los científicos cogni-tivos, no porque hubiera datos firmes en su favor, sino porque parecía la única que «quedaba a flote». No parecía haber concepcionesalternativas plausibles del funcionamiento del cerebro. El PDP hacambiado el panorama: ya flotan más maderos a los que agarrarse. Según la nueva teoría, el cerebro es una compleja trama de redes estratificadas. No hay símbolos ni programas. Más avanzado el capítuloconsideramos algunas objeciones a la nueva teoría. Por ahora gocemos de la novedad.

10.5. Comparaciones con la biología

Una dé las credenciales de la nueva teoría es el grado en que lasredes PDP muestran rasgos de semejanza con el cerebro. He aquí unalista de similitudes (Puede ser conveniente repasar la sección 9.2):123*****

1. Las unidades individuales de una red se parecen algo a lasneuronas auténticas.

2. Se suele aceptar que el aprendizaje del cerebro entraña la modificación de la fuerza de las conexiones (aunque eso no estádemostrado).

3. Las redes son paralelas a gran escala. La salida está generada por la perturbación del estrato de la entrada a través de unaorgía de excitaciones e inhibiciones en la que participan si

multáneamente todas las unidades. Se sabe que las poblaciones de neuronas auténticas se dedican a un tipo muy similar de actividad en paralelo.

19 Wittgenstein, L., Philosophical Investigations, secciones 65-78.

Page 329: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 329/416

Un nuevo punto de partida para la IA 333

4. Las redes almacenan información de forma distribuida, ycada conexión individual participa en el almacenamiento deelementos muy diferentes de información. La pericia que per

mite a la red de los pretéritos formar wept  a partir de weep noestá almacenada en ninguna conexión específica, sino que escreada durante el entrenamiento. Las redes, pues, suministranun modelo para entender los resultados de Lashley y otrosrelativos al carácter no localizado de la memoria (sección 9.2).

5. Se puede hacer que una red funcione como una memoria di-reccionable por el contenido, en el sentido de que si se le pre

senta como entrada una parte de un patrón recordado, segenere como salida el patrón completo20. La direccionabili-dad por el contenido es uno de los rasgos más llamativos de lamemoria humana.

6. Las redes se degradan con elegancia. Si aquí y allá se rompenunas cuantas conexiones, la red sigue en funcionamiento,aunque el daño producirá una tendencia a cometer errores.Según aumenta el daño, la actuación de la red empeora pro

gresivamente (de una manera que recuerda vagamente a loscerebros que padecen alguna enfermedad degenerativa)21.

Sin embargo, estas semejanzas entre las redes y la biología estánacompañadas por una lista de desemejanzas importantes. Las redesPDP existentes no constituyen en realidad sino la más tosca aproximación a las redes de neuronas auténticas, y harán falta muchos refinamientos para que el PDP pueda presumir de haber ofrecido una

comprensión significativa de las funciones del cerebro. El resto déesta sección es un examen de algunas de las divergencias principales.

 Las neuronas auténticas

El cerebro contiene una gran cantidad de tipos diferentes de neu-

ronas: con forma de pirámide, de estrella, de candelabro y otras mu-

chas. Varios factores indican que los diversos tipos ejecutan funcio

20  McClelland, J. L., Rumelhart, D. E., y Hinton, G. E., «The Appeal of Parallel Distributed Processing», pp. 25-9 [ed cast., «El atractivo...», op. cit.].

2* Wood, C, C., «Variations on a Theme by Laschley: Lesion Experiments on the Neural Model of Anderson, Silverstein, Ritz and Jones».

Page 330: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 330/416

334 Inteligencia artificial. Una introducción filosófica

nes diferentes. Por ejemplo, la «proporción» de neuronas no es uni-forme en todo el cerebro: en distintas regiones predominan tipos di-ferentes de células. Además, las neuronas de los diferentes tipos tie-

nen otras cantidades de conexiones, que varían desde unas pocascentenas a centenas de miles. Esta diversidad no se refleja en las redesPDP, que siempre contienen un mismo tipo de unidades. Sólo poresta razón hay que considerar las redes actuales como un modelomuy basto de la biología humana.

Peor aún, las unidades PDP no se corresponden con ningún tipoconocido de neurona. Todas las neuronas reales se dedican o bien ainhibir el disparo de otras células o bien a incitarlas al disparo, nuncaa ambas cosas. Las unidades PDP, por el contrario, son híbridas: cadauna de ellas tiene una combinación de conexiones inhibitorias y exci-tatorias. Hasta el momento no han tenido éxito los intentos de cons-truir redes operativas con unidades no híbridas.

Las dificultades de este estilo han llevado a algunos investigadoresa proponer que se considere cada unidad como representación de ungrupo de neuronas, algunas de ellas inhibitorias y otras excitatorias22.

Esta estratagema se ha ganado un ácido comentario del biólogo Fran-cis Crick: «Si dijeran con claridad cómo se puede formar un grupocon neuronas más o menos reales... [la sugerencia] podría ser acepta- ble para los neurocientíficos..., pero esto no se hace o se hace raravez»23.

 El proceso de aprendizaje

Además de unas cuantas desemejanzas serias entre el aprendizajede un cerebro y de una red, no hay una analogía detallada.

Todos los procedimientos conocidos para modular las fuerzas delas conexiones en el entrenamiento dependen decisivamente de la re-

 petición. Para completar su entrenamiento, una red tiene que pasar por toda la muestra de entrenamiento un número considerable de ve-ces. Aunque en el aprendizaje humano la repetición es importante,

22 McClelland, J. L., Rumelhart, D. E., y el Grupo de Investigación PDP,  Parallel   Distributed Processing: Explorations in the Microstructure o f Cognition, vol. 2: Psycholo-

 gical and Biological Models, p. 329.23  Crick, F., y Anasuma, C., «Certain Aspects of the Anatomy an Physiology of the

Cerebral Cortex», p. 370.

Page 331: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 331/416

Un nuevo punto de partida para la IA 335

no es de ningún modo esencial en todos los casos. Por ejemplo, quientenga buena memoria puede aprender una lista de instrucciones o una

 página de vocabulario francés en una sola lectura.

Otra diferencia importante la pone de manifiesto el hecho de quelas redes sólo aprenden sus habilidades con ayuda de un maestro (aunque se están buscando algoritmos de aprendizaje «autosupervisados»).Los cerebros, por supuesto, dependen mucho más de sí mismos. Durante mi primer encuentro con el windsurf,  los errores repetidos permitieron a mi cerebro aprender qué señales de salida debía producir enel sistema muscular la grácil unión del filósofo y el viento. En el transcurso de este proceso de aprendizaje, mi cerebro no tenía un conocimiento previo de las salidas correctas. No había ningún ser externo casiomnisciente que le suministrara a mi cerebro las especificaciones precisas de las señales que había que buscar. Los procedimientos de aprendizaje de las redes exigen una especificación externa de las salidas deseadas. Cada paso del ciclo de entrenamiento entraña la comparación de lasalida real con la salida que quiere conseguir el entrenador, y luego tirar para arriba o para abajo de las conexiones, según.

Está claro, pues, que aunque el cerebro aprenda a través de la modificación de la fuerza de las conexiones, los procedimientos que usatienen poco parecido con los que hasta ahora se usan en el PDP.

 La química del cerebro

Paradójicamente, la unión de un par de fibras neuronales interco

nectadas consiste sobre todo en un espacio vacío. En su punto más próximo, las fibras están separadas por lo que se conoce como hiatosináptico, y las señales excitatorias e inhibitorias que pasan de unaneurona a otra son «transportadas» a través de estas soluciones decontinuidad por sustancias químicas llamadas neurotransmisores24.En la última década, aproximadamente, se han identificado unos cincuenta tipos diferentes de neurotransmisor y los investigadores creenque el total será mucho mayor.

La inyección de neurotransmisores en sujetos ha producido efectos tan dispares como mejorar la memoria, alegría, tristeza, analgesia

24 Para un breve tratamiento de los detalles del proceso, véase el Oxford Companion to the Mind,  comp, por Gregory, R. L., pp. 554-7 [ed, cast,  Diccionario Oxford de la mente, Madrid, Alianza Editorial, 1995].

Page 332: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 332/416

336 Inteligencia artificial. Una introducción filosófica

y estimulación erótica. Se han usado con bastante éxito las sustanciasquímicas que interfieren con la actividad de los neurotransmisores enel tratamiento de enfermedades como la esquizofrenia 25. Evidente-

mente, los neurotransmisores desempeñan diversos papeles sistemáti-cos en las operaciones del cerebro. (También se especula algo sobreque puedan tener un papel en el mecanismo del cerebro para modifi-car las fuerzas de las conexiones entre neuronas.) Acaso se demuestreque entender la contribución general de las sustancias químicas al

 procesamiento de la información es tan importante como entender laactividad eléctrica de las neuronas. El PDP se ha centrado en la se-gunda tarea y prácticamente ha pasado por alto el aspecto químico delas operaciones del cerebro26.

 La geometría del cerebro

Las neuronas y sus fibras conectoras están con frecuencia dis- puestas en pautas extraordinariamente regularés. Los científicos del

cerebro son proclives a caer en el lirismo cuando describen este orde-namiento geométrico. En el nivel microscópico el cerebro está «ex-quisitamente estructurado», es «bella y eminentemente regular», «aveces de apariencia casi cristalina». Por tomar un ejemplo específico,la estructura microscópica del cerebelo —un órgano que está en la

 parte posterior del encéfalo— se asemeja a una rejilla tridimensionalrectangular. Enormes cantidades de fibras de entrada, largas y hori-zontales, se ordenan en capas de limpias líneas paralelas, y, entrete-

 jido perpendicularmente a este haz, hay otro conjunto igualmentedenso de fibras de salida, cada una inmaculadamente perpendicular alas fibras horizontales que la rodean.

En cambio, una red PDP no tiene geometría, por así decir. Ayudaimaginar que las unidades yacen en estratos horizontales y que las co-nexiones ligan los estratos en vertical (como en la figura 10.2), peroesto es una comodidad. No importa que la red esté aplastada en unsolo nivel o que esté retorcida al azar. Lo único que importa es cómoestán conectadas las unidades, y en las redes existentes esto dependemucho menos de la estructura espacial que en el caso del cerebro. En la

25  Davis, J. M., y  Carver, D. L., «Neuroleptics: Clinical Use in Psychiatry».26  Véase McClelland, J. L., y Rumelhart, D. E.,«Amnesia and Distributed Memory»

 para unos primeros pasos en esta dirección.

Page 333: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 333/416

Un nuevo punto de partida para la IA 337

red de dos niveles para los pretéritos, por ejemplo, cada unidad de entrada está conectada uniformemente con todas las unidades de salida.En ningún sentido una unidad de entrada está conectada a más unida

des de salida «próximas» que «distantes». En el cerebro, por el contrario, cada neurona se conecta profusamente con su vecindad inmediatay más parcamente con las neuronas situadas a una distancia ligeramente mayor. Cuando un grupo entero de neuronas está conectado alarga distancia con un segundo grupo, las conexiones pueden respetarla relación geométrica de las neuronas. Simplificando, si en el primergrupo la neurona B está situada entre las neuronas A y C, es probableque B esté conectada con una neurona del segundo grupo que esté situada a su vez entre las neuronas que conectan con A y con C.

 No se sabe si la intrincada geometría del cerebro desempeña o no un papel esencial en su funcionamiento. Un ingenio puede constar de com ponentes organizados en pautas regulares sin que esa regularidad pintenada en el modo como funciona el ingenio. Tomemos un aparato de TV.Es habitual agrupar los componentes en el chasis con armonía, pero ésoes para comodidad en el montaje y la reparación. La limpia disposición

geométrica de los condensadores, resistencias, interruptores, etc., nocontribuye en absoluto al funcionamiento del aparato, mientras que elfuncionamiento correcto de un microscopio o de un reloj depende decisivamente de las disposiciones geométricas precisas de sus componentes. Estos ingenios trabajan según principios geométricos.

¿En qué categoría cae el cerebro? ¿Es la geometría esencial parasu funcionamiento o es sobre todo accidental? En el momento presente, esta pregunta está, en términos generales, abierta. Se ha conje

turado que la geometría del cerebro puede tener un papel vital en lacoordinación del ojo y la mano, el procesamiento de sensaciones, lacomprensión lingüística, y otras muchas cosas27. Pero, por otro lado,

27 Por ejemplo, Churchland, P. M., «Some Reductive Strategies in Cognitive Neuro biology». Para la hipótesis de Churchland es decisivo el hecho de que se sabe que hayuna cantidad considerable de «mapas» neuronales. Por ejemplo, parte de la superficie de

la corteza contiene una representación bidimensional del campo visual activo en cadamomento de los ojos. Otros mapas lo son del panorama auditivo y la orientación de losmúsculos. Estos mapas están a menudo deformados por la curvatura local del tejido de lacorteza. Churchland especula que esta deformación geométrica sirve para el registro o«sincronización» mutua de los diversos mapas. Si eso es cierto, la geometría cerebral

 puede ser básica para la coordinación mano-ojo, mano-oído, y otras muchas cosas. (Véase también Pellionisz, A., y Llinás, R., «Brain Modeling by Tensor Network Theory andComputer Simulation», esp. pp. 344-5.)

Page 334: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 334/416

338 Inteligencia artificial.. Una introducción filosófica

es posible que la intrincada geometría del cerebro tenga más relacióncon las exigencias del crecimiento biológico que con la función cog-

nitiva del órgano.

Si el cerebro opera según principios geométricos, entonces las redes PDP que hasta ahora se han estudiado son como un retrato queomite el rostro. Cuando los investigadores del PDP comiencen a ex

 perimentar con redes que incorporen aspectos de la geometría del cerebro, su investigación acaso ayude a desvelar la significación de h exquisita estructura del cerebro.

10.6. El gimnasio chino de Searíe

A John Searle el PDP no le inquieta más que la IA tradicionalSostiene que ninguna red PDP es capaz de aprender un lenguaje en e¡sentido pleno ni de realizar ninguna otra tarea que exija entendiómiento. Ha construido adaptaciones de su experimento mental de lahabitación china que, según cree, lo demuestran. Dice:

La IA fuerte afirma que pensar es simplemente la manipulación de símbolosformales... Los Churchland tienen razón cuando dicen que el argumento ori:ginario de la habitación china fue ideado con la vista puesta en la IA tradicional, pero se equivocan al pensar que el conexionismo [esto es, el PDP] es inmune al argumento... el sistema conexionista está sujeto, incluso en sus propios términos, a una variante de la objeción del argumento de la habitación china... [El argumento] se aplica a cualquier sistema computacional... estén hechas [las computaciones] en serie o en paralelo. Por esto el argumentede la habitación china refuta la IA fuerte bajo cualesquiera de sus formas28.

En realidad, las dos adaptaciones de Searle del argumento de lahabitación china son más poderosas de lo que parece creer. Si vale alguna de las dos, refuta la afirmación general de que alguna forma dt  arquitectura PDP es capaz de cognición, no sólo la afirmación más limitada a la que Searle denomina «IA fuerte».

28 Searle, J., «Is the Brain»s Mind a Computer Program?», pp. 20 , 22. El ensayo 3que Searle se refiere es Churchland, P. M., y Churchland, P. S., «Could a MachineThink?».

Page 335: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 335/416

Un nuevo punto de partida para la IA

 Primer argumento

339

Imaginemos que, en vez de una habitación china, tenemos un gimnasio

chino, un salón que contiene muchos hablantes monolingües del inglés. Estas personas están realizando las mismas operaciones en los nodos y sinapsis[esto es, las unidades y conexiones] de una arquitectura conexionista... el re-sultado sería el mismo que el de tener a un solo hombre que manipule sím-

 bolos según un libro de reglas. En el gimnasio nadie habla una palabra dechino, y no hay manera de que el sistema en su conjunto aprenda el signifi-cado de las palabras chinas. No obstante, con los ajustes apropiados, el sis-tema podría dar las respuestas correctas a preguntas en chino29,

Searle no especifica exactamente cómo simulan las gentes del gim-nasio las unidades de la red, pero es fácil completar algunos detalles.Como hemos visto, lo que hace una unidad es difundir la salida a susvecinas cuando la entrada total que recibe sobrepasa el umbral. Las personas del gimnasio pueden mimetizar esto pasándose piezas de plástico. Con piezas verdes, por ejemplo, se representa la entradadesde una conexión excitatoria y con rojas desde una conexión inhi-

 bitoria. El número de piezas que pasan de uno a otro jugador (en unatransacción) representa la fuerza de la conexión. Puesto que en la si-mulación participará una cantidad muy grande de personas, sin dudaserá una buena idea dar a los jugadores listas que detallen a quiénesles deben dar las piezas y cuántas. Durante la fase de entrenamientode la simulación, los jugadores introducen cambios en sus listas con-forme a las instrucciones que vocifera el entrenador.

Se puede conceder a Searle que por muchas piezas que se manejeny por mucho que se juegue con las listas, ningún jugador individualaprenderá el chinó. Pero de esto no es permisible inferir que el tin-glado, como un todo, es incapaz de aprender el chino. Como ya es

 probablemente obvio, esta nueva versión del argumento de la habita-ción china incurre exactamente en la misma falacia que la antigua. Laconclusión de Searle de que este montaje no entiende el chino no sesigue de la premisa de que ninguno de los jugadores individuales en-

tiende el chino, igual que la premisa de que José Culebrón ignora elchino no implica que el sistema del que José forma parte no entiendeel chino (sección 6.2).

29 Searle, J., «Is the Brain's Mind a Computer Program?», p. 22.

Page 336: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 336/416

340 Inteligencia artificial. Una introducción filosófica

Segundo argumento

Debido a que las máquinas paralelas son aún escasas, los programas conexio-

nistas [sicj se ejecutan generalmente en máquinas seriales ordinarias... Compu-tacionalmente, los sistemas seriales y paralelos son equivalentes... Si el hom bre de la habitación china es equivalente computacionalmente a ambos,entonces si él no entiende el chino en virtud de las computaciones que realiza, ningún sistema lo hará30.

Cuando Searle dice sin mucho precisar que los sistemas paralelosy seriales son equivalentes, se refiere al hecho de que, con recursos

ilimitados, una máquina Von Neumann puede simular cualquier redPDP (las secciones 10.7 y 10.9 examinan con detalle este hecho a primera vista sorprendente). Expresado con rigor, el argumento de Searle

 parece ser éste: sea N una red PDP supuestamente capaz de entenderel chino. El hombre de la habitación es capaz de simular N, aunqueopere de forma serial (por lo anterior). Llevar a cabo la simulación nole permite entender el chino (basta con preguntarle). Por tanto, N noentiende el chino. Voy a explicar por qué no es válido este engañosoargumento (en este segundo argumento no hacen falta el gimnasiochino ni sus ocupantes, otra simulación de N).

Lo primero que se advierte es que este argumento comete lamisma falacia parte-todo que el argumento originario de la habitación china. «El hombre no entiende» no implica «la simulación glo

 bal de N, de la cual es parte el hombre, no entiende».Mi segunda critica es un poco menos directa. Searle mismo ha

lanzado frecuentes avisos sobre los peligros de confundir una simulación por computador con la cosa simulada. He aquí algunos pasajescaracterísticos.

 Nadie supone que la simulación que hace un computador de una tormentanos moja... ¿Por qué diablos ha de suponer alguien que esté en sus cabalesque una simulación computacional de los procesos mentales tiene de hecho

 procesos mentales?31

Milagros aparte, no podemos hacer andar a nuestro coche mediante unasimulación computacional de la oxidación de la gasolina, y no podemos digerir una pizza ejecutando [un] programa que simule la digestión. Parece evidente que una simulación de la cognición (incluso una que «sea fiel hasta la

50 Searle, J., «Is the Brain's Mind a Com puter Program?», p. 22.31 Searle, J., Minds, Brains and Science, pp. 37-8.

Page 337: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 337/416

Un nuevo punto de partida para la IA 341

últim a sinapsis») tam poc o igualmente pro du cirá los efectos de la neu rob iolo-gía de la co gnic ión 32.

A partir, del hecho de que se pueda simular un sistema por medio de ma

nipulaciones de símbolos, y de que [el sistema] piense, no se sigue que el pensam ie nto sea equivalente a u na m anipula ció n form al de s ím b o lo s33.

Los ejemplos de Searle muestran vigorosamente que, en general,no es válido argumentar como sigue:

S es una simulación de X; X puede □; luego S puede □.

Una tormenta nos puede mojar, pero difícilmente se sigue queuna simulación por computador de una tormenta nos pueda mojar.Permítaseme llamar a esta forma de argumento «la Bestia Negra deSearle».

Consideremos una versión ligeramente distinta:

S es una simulación de X; S no puede □; luego X no puede □.

Esta es, como la denominan los lógicos, la forma contrapuesta, ocontraposición, de «S es una simulación de X; X puede □; luego S

 puede □». La contraposición de un argumento se obtiene cuando intercambiamos la conclusión con una de las premisas e insertamos un«no» en cada uno de los enunciados desplazados. (Así, un argumentocontrapuesto de A, B C es: A, no-C .\ no-B.) Lo interesante de loscontrapuestos es que, si un argumento no es válido, entonces tam

 poco lo es ninguno de sus contrapuestos. (Esto se puede demostrarformalmente. Quien quiera hacer la demostración puede reflexionaren que si de «B es falso» se sigue que «A es falso», entonces de «A esverdadero» se sigue «B es verdadero».)

El problema de Searle es que su segundo argumento no es másque una. contraposición de su propia Bestia Negra. Si tomamos laforma contrapuesta de la Bestia Negra («S es una simulación de X; Sno puede □; luego X no puede □») y sustituimos «S» por «el hombre

de la habitación china», «□» por «entiende el chino», y «X» por «N»,lo que obtenemos exactamente es el argumento de Searle: el hombrede la. habitación china simula N; el hombre no entiende el chino;

32' Searle,]., «Is the Brain’s Mind a Computer Program?», p.23.33 Searle, J., ibidem, p. 21.

Page 338: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 338/416

342 Inteligencia artificial. Una introducción filosófic

luego N no entiende el chino. El segundo argumento de Searle y LBestia Negra se sostienen o se caen juntos.

[Démonos cuenta de que el paso de «la simulación de X no en

tiende el chino» a «X no entiende el chino» no hace falta en el argumentó originario de la habitación china. Ello se debe a que el tinglad<de la habitación no es una simulación de un manipulador de símbolos, sino un manipulador de símbolos,]

Ahora que ha salido a escena la Bestia Negra de Searle, puedevolver a la discusión del argumento del gimnasio chino. Como ya sihabrán dado cuenta, este argumento consta de dos inferencias, una ;

 partir de una premisa sobre los jugadores individuales del gimnask para obtener una conclusión sobre la simulación como un todo, iuna segunda a partir de esta conclusión intermedia para obtener uníafirmación acerca de la red simulada.

 Ningún jugador individual, entiende el chino..*. La simulación como un todo no entiende el chino.

La red simulada no entiende el chino.

Espero que me concedan que hay que rechazar el argumento d<Searle en favor de la conclusión intermedia (porque comete la falacií

 parte-todo). Pero puede que aún quede la disposición a conceder \ Searle que la conclusión del argumento es verdadera: simplemente, líestrafalaria simulación de N contenida en el gimnasio no puede aspi!rar a entender el chino. Estoy seguro de que ésta será una intuicióimuy común. Si se le concede a Searle esto, ¿hemos de seguirle cuande

infiere que N no entiende el chino? No. Searle es la última personjque debería defender esta inferencia, pues tiene la forma, como antesde una contraposición de la Bestia Negra: el tinglado del gimnasio eiuna simulación de N, la simulación no entiende el chino, luego N ncentiende el chino.

Ciertamente, no hay ninguna razón por la cual quienes creen quientender el chino (y en general tener estados mentales) consiste en 1;clase de procesamiento que acontece en las redes PDP, deban aceptala inferencia. En una escala, una simulación puede variar entre pobriy exacta, y la afirmación de que los actos mentales son un procesamiento distribuido paralelo no implica, en efecto, que toda simulación de la mente tenga mente. Lo que implica que si un ingenio PDlentiende el chino, entonces una simulación suficientemente exacta deingenio entenderá el chino (pues una simulación de un procesamienti

Page 339: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 339/416

Un nuevo punto de partida para la IA 343

distribuido paralelo es simplemente un procesamiento distribuido paralelo). La contraposición de esto da una forma condensada de lasegunda mitad del argumento del gimnasio: si una simulación sufi-

cientemente exacta de un ingenio PDP no entiende el chino, entoncesel ingenio mismo no entiende el chino. Esto, no obstante, no le sirvede nada a Searle, porque la simulación del gimnasio «dista mucho deser una simulación exacta de N».

Es una insensatez la idea de que la gente del gimnasio puede ofre-cer una simulación exacta de una red lo bastante compleja como para

 procesar y responder adecuadamente a una entrada de oraciones en

chino. Como hemos visto en el capítulo 6, muchas de las objecionesde Searle a la ciencia cognitiva entrañan un rechazo deliberado a to-mar en serio las realidades físicas y biológicas. He aquí un ataquecaracterístico a la hipótesis fuerte del sistema de símbolos: «... si in-tentamos tomar en serio la idea de que el cerebro es un computadordigital, llegamos a la incómoda conclusión de que podríamos fabricarun sistema que haga lo mismo que el cerebro con casi cualquiercosa... gatos y ratones y queso o palancas, o tuberías o palomas o lo

que sea...»34. La teoría de que el cerebro es un computador no im- plica (¿tengo que decirlo?) que se pueda realmente hacer con palomasun cerebro artificial. (La teoría sería absurda si lo implicara: Searletiene razón en eso.) Sólo en el país de las hadas se hacen computado-res con gatos, ratones^y queso o se puede hacer una simulación exactade una gigantesta red PDP con un escuadrón de personas en un gim-nasio.

¿Qué pasa si un defensor de la segunda parte del argumento del

gimnasio grita «{experimento mental!» en este momento? Recorde-mos que en el caso del experimento mental de la habitación china nome importaba pasar por alto que un ser humano auténtico no puedeejecutar a mano con bastante precisión y rapidez un programa ex-tenso de IA. Si quiero ser consistente, ¿no debería hacer ahora unaconcesión similar? Sin embargo, sería un error táctico que el defensordel argumento siguiera esta línea en el momento presente de la discu-sión. («Venga, no se ponga picajoso e imagine un mundo en quela gente del gimnasio fuera capaz de ofrecer una simulación exactade N».) El efecto sería anular la intuición de que el tinglado del gim-nasio no entiende el chino. El protagonista del argumento estaría pi-diéndonos considerar un mundo que difiere tanto del mundo real

34 Searle, J., «Is the Brain a Digital Computer», p. 25.

Page 340: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 340/416

344 Inteligencia artificial. Una introducción filosófica

que permite que un grupo de seres humanos con los bolsillos llenosde piezas de colores escenifiquen una simulación exacta de una red dequizá mil billones de conexiones. No tengo intuiciones muy firmes

sobre el país de las hadas, salvo que en él hay que esperar cosas estrambóticas, y no tengo la menor inclinación a insistir en que ni siquiera en el país de las hadas la extraña «máquina» del gimnasio seríaincapaz de entender el chino.

Volveré a las opiniones de Searle sobre la simulación en la sección 10.9. Afirma (en la cita de unas páginas atrás) que una simulación por computador de la cognición hecha neurona por neurona,y sinapsis por sinapsis no sería, a su vez, un sistema cognitivo. Enmi opinión, ahí se equivoca. Lo interesante no es si tal simulación,caso de que existiera, sería un sistema cognitivo, sino si podríaexistir la simulación. Éste es uno de los asuntos de los que ahorame ocuparé.

10.7. La tesis Church-Turing

«¡Abajo los programas!», «¡Abajo la manipulación de símbolos!»,«¡Abajo el mentalés!». Éstos son los gritos de guerra de la revoluciónPDP y se clavan en el corazón de la ciencia cognítiva y de la IA ortodoxas. No sorprende, pues, que las fuerzas de la ortodoxia se hayanaprestado al contraataque 3\ Én lo que queda de capítulo, revisaré elarmamento de los contrarrevolucionarios, empezando por la tesisChurch-Turing.

Tenemos que considerar dos temas. En primer lugar está la cuestión de si la revolución PDP es un peligro para la hipótesis del sistema de símbolos. En segundo lugar está la cuestión de en qué medida el PDP amenaza la hipótesis fuerte del sistema de símbolos.¿Qué murallas puede disponer la ciencia cognitiva ortodoxa en tornoa su teoría de que el cerebro biológico es un procesador de símbolos?Estas preguntas son complejas. La tesis Church-Turing destaca en el

 paisaje y es un punto de partida natural.35

35 Véanse, por ejemplo, Fodor, J., y Pylyshyn, Z., «Connectíonism and CognitiveArchitecture: A Critical Analysis»; Pinker, S., y Prince, A., «On Language and Connec-tionism: Analysis of a Parallel Distributed Processing Model of Language Acquisition»;y el comentario que sigue al artículo de Smolensky «On the Proper Treatment of Con-nectionism».

Page 341: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 341/416

Page 342: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 342/416

346 Inteligencia artificial. Una introducción filosófica

divisiones largas. Y, por supuesto, todos los programas (que terminan) de computador son algoritmos3S.

Un sistema (real o abstracto) es calculable algorítmicamente si

hay un algoritmo —conocido o desconocido— para calcular su conducta. Dicho con más detalle, el sistema es calculable algorítmicamente sólo en el caso de que haya uri procedimiento algorítmico paraderivar descripciones correctas de las salidas del sistema a partir dedescripciones correctas de las entradas que recibe (y, además, que el

 procedimiento funcione con todas las entradas posibles). Tautológicamente, un computador con un conjunto dado de programas es unsistema calculable algorítmicamente (suponiendo que no se estropee)

 porque, desde luego, los programas son algoritmos para pasar de entradas a salidas. Las redes PDP son también sistemas calculables algorítmicamente.

He aquí la tesis Church-Turing (contada en términos que no sonde Church ni de Turing):

Cualquier sistema calculable algorítmicamente puede ser simulado medianteun sistema de símbolos universal.

En otras palabras, un computador con una memoria lo bastantegrande puede simular cualquier sistema calculable algorítmicamente(un computador puede simular otro sistema si, y sólo si, se puede

 programar el computador de manera que genere descripciones sim bólicas correctas de las salidas del sistema a partir de descripciones delas entradas, para toda entrada posible). La tesis Church-Turing es un

enunciado sobre la potencia de los computadores: no hay ningún ingenio calculable algorítmicamente más potente que un computador.Todo lo que se pueda hacer con semejante ingenio se puede hacercon un computador (aunque es posible que no en el mismo tiempo).

La palabra «tesis» se usa para dar idea de la condición relativamente extraña del enunciado. Todo, el mundo lo cree, pero todo elmundo está de acuerdo en que no ha sido demostrado. En efecto, noes una proposición que se pueda demostrar formalmente, porque el

38 Hay una distinción importante entre el programa real (que es un algoritmo) y elalgoritmo que el programa encarna. Por ejemplo, un programa en BASIC y un programaen Fortran son dos algoritmos diferentes, pero el programa en BASIC y el programa enFortran para sacar raíces cuadradas pueden estar usando el mismo algoritmo matemático para extraer las raíces.

Page 343: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 343/416

Un nuevo punto de partida para la ÍA 347

concepto de calculabilidad algorítmica es muy informal, pues lo caracterizamos en términos de ideas tan imprecisas como talento o perspicacia. Los argumentos en favor de la tesis son indirectos, pero

imperativos. A lo largo de los años se han construido definicionesmatemáticas precisas que intentan captar el concepto informal de quealgo es calculable algorítmicamente. Aunque todas estas definicionesse han vertido en términos muy diferentes, todas han resultado serequivalentes entre sí. Éste es un argumento en su favor: por así decir,se dan apoyo mutuo. Además, cada definición hace verdadera la tesisChurch-Turing, y eso es susceptible de prueba formal, puesto que loobtenido al reformular la tesis en términos de una definición precisaes un enunciado exacto matemáticamente (advirtamos que, de paso,la recíproca de la tesis Church-Turing es trivial: si se puede simularun sistema mediante un computador —en el sentido preciso de«simular» utilizado—, entonces es un sistema calculable algorítmicamente).

Si la tesis Church-Turing es verdadera (como piensa todo el mundo)y si nuestros procesos cognitivos son calculables algorítmicamente,

entonces se sigue que, en principio, un computador podría dar unasimulación exacta de la mente. A veces se presenta esto como argumento general en defensa de que la aproximación del sistema simbólico a la IA es plausible. El argumento es el primer elemento de juiciode nuestra revisión del arsenal contrarrevolucionario.

El argumento tiene una dificultad. Es importante darse cuenta deque la tesis Church-Turing no dice nada sobre la viabilidad prácticade usar un computador para simular un sistema dado calculable algo

rítmicamente. La tesis sólo nos dice que se puede hacer la simulaciónen un mundo ideal de recursos ilimitados, un mundo en el que nocuenta el tiempo, en el que se pueden ignorar los problemas de laconfiabilidad y del error acumulativo y, lo más importante, en el quela capacidad de la memoria del computador no tiene límite. Es unacuestión del todo distinta que la simulación se pueda llevar a cabo enel menos munifÍcente entorno que ofrece el mundo real.

Los computadores idealizados del ensayo de 1936 de Turing sonuna rica fuente de ejemplos de las simulaciones posibles en un mundoideal, pero imposibles en el real. (Recordemos que una máquina deTuring sólo consta de una cabeza de lectura y escritura y una cintade papel de longitud ilimitada.) La formulación originaria de Turingde la tesis Church-Turing empleaba estas máquinas idealizadas: cualquier sistema calculable algorítmicamente lo puede simular una má-

Page 344: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 344/416

348 Inteligencia artificial. Una introducción filosófica

quina de Turing. Por tanto, una máquina de Turing puede simular elsupercomputador Cray, que es el último grito (porque un Cray,claro está, como todo computador, es calculable algorítmicamente).

Sin embargo, a una máquina de Turing le llevaría siglos simular unas pocas horas de operaciones de Cray, y la simulación requeriría seguramente más papel del que se puede conseguir en el planeta. La distinción entre simulaciones reales e ideales; esto es, entre simulaciones posibles en la práctica y posibles sólo en principio, es importante yvolverá a aparecer en las secciones 10.8 y 10.9.

La distinción real/ideal apunta hacia una debilidad seria del in

tento de usar la tesis Church-Turing como muro defensivo de laaproximación del procesamiento simbólico a la IA. Si es verdad quenuesti'os procesos cognitivos son calculables algorítmicamente, entonces, en principio, los puede simular un computador, pero la pegaes que puede no ser ni remotamente posible hacer la simulación en elmundo real Además hay otra debilidad, lo bastante significativacomo para merecer una sección.

10.8. ¿Son nuestros procesos cognitivos calculablesalgorítmicamente?

La tesis Church-Turing tiene algo de caballo de Troya. De primeras parece un tributo a la potencia y generalidad de la aproximaciónsimbólica a la IA, pero en realidad, las ideas que Turing presentó en1936 pueden servir de base a un escepticismo relativo a los funda

mentos tanto de la IA simbólica como del PDP. Esta sección es lahistoria de esta amenaza externa a la IA, una amenaza que se ciernesobre la revolución PDP y la contrarrevolución ortodoxa. (Quienesté impaciente por continuar con la contrarrevolución puede saltarseesta sección. El mejor lugar para volver a ella es la sección 10.11.)

Si la tesis Church-Turing es verdadera y si nuestros procesos cognitivos son calculables algorítmicamente, entonces, en principio, uncomputador lo bastante grande puede dar una simulación exacta de lamente. Pero ¿qué ocurre con el segundo «si»? En su ensayo de 1936Turing vacilaba sobre la posibilidad de que nuestros procesos cognitivos fueran calculables algorítmicamente39. Después esto se ha con

39 Turing, A., «On Computable Numbers, with an Application to the Entscheidungsproblem», pp. 249-52.

Page 345: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 345/416

Un nuevo punto de partida para la IA 349

vertido en artículo de profunda fe entre los investigadores de la IA, eincluso ha adquirido la condición de algo «demasiado evidente paramencionarlo». Tomemos la expresión de Newell de la defensa todo-

térreno de la IA simbólica que hemos estado considerando: «Un sistema universal [de símbolos] contiene siempre el potencial de serotro sistema, si así se le instruye. Por tanto, un sistema universal se

 puede convertir en un sistema inteligente en general» 40. La hipótesisde que un sistema que muestre inteligencia general es calculable algorítmicamente se cree tan obvia que ni se menciona. Justin Leiber noes menos dogmático: «En principio somos máquinas de Turing, perohacemos las cosas a través de procesos paralelos maravillosa y diestramente coordinados, en los que predominan la economía y la sim

 plificación» 41. En realidad no hay ninguna razón —aparte de las ganas— para creer que nuestros procesos cognitivos son calculablesalgorítmicamente. Esto es tierra incógnita y, por lo que sabemos, muchos aspectos de la función cerebral podrían no ser computables.

Para seguir con este punto necesitamos un poco de terminologíaespecializada. Sea S un conjunto de oraciones. Por el momento no

importa cuáles; voy a emplear S como base para varias definicionesgenerales, en el sentido de que se aplican a cualesquiera oracionesde S. Llamemos L al lenguaje en el que las oraciones S están escritas.(L podría ser el español o el cálculo diferencial o el cálculo de predicados de primer orden, etc.). Decir que S es deádible equivale a decirque hay un algoritmo para establecer si cualquier oración dada es ono un miembro de S. El álgoritmo debe dar la respuesta acertada paracada miembro de S. Así, para que S sea decidible debe haber un algo

ritmo que se pueda aplicar a cada oración de L, y que emita la res puesta «Sí, esta oración está en S» o «No, esta oración no está en S»(y además las respuestas deben ser siempre acertadas). Se dice que Ses indecidible  si no hay tal algoritmo. Si lo hay, se le denomina (un)

 procedimiento de decisión para S42.Por dar un ejemplo evidente de un conjunto decidible, sean los

únicos miembros de S las oraciones «Londres está en Inglaterra» y«París está en Francia». Es fácil componer un procedimiento de decisión para este conjunto de dos miembros: dada una oración del espa

40 Newell, A., «Physical Symbol Systems», p. 170.41 Leiber, J., An Invitation to Cognitive Science, p. 100.42 Un conjunto decidible puede tener más de un procedimiento de decisión. Por de

finición, los diferentes procedimientos tienen que coincidir en sus respuestas.

Page 346: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 346/416

350 Inteligencia artificial. Una introducción filosóficí

ñol, revisémosla carácter por carácter y determinemos si es o neidéntica al primer miembro de S o al segundo miembro de S. Si esidéntica a una de ellas, entonces la salida es «Esta oración está en S»,

y si no «Esta oración no está en S». Esto se llama procedimiento dedecisión por inspección (o algoritmo de inspección). El programa con-tiene una lista completa de los miembros de S y comprueba la perte-nencia de las oraciones a S inspeccionando la lista.

Cualquier conjunto finito de oraciones tiene un procedimiento dedecisión por inspección. En otras palabras, todo conjunto finito deoraciones es decidible. Los procedimientos de decisión por inspec-ción son menos practicables cuanto mayor es el conjunto en cuestión.

En efecto, es fácil imaginar procedimientos de decisión por inspec-ción completamente imposibles de llevar a la práctica. Tomemos unconjunto que conste de N oraciones en español, donde N es el nú-mero de átomos del universo conocido. Puesto que N es finito, esteconjunto tiene un procedimiento de decisión por inspección, peroningún computador real puede ejecutarlo. (Aunque una máquina deTuring podría, porque las máquinas de Turing tienen recursos ilimi-

tados.) Por eso, los procedimientos de decisión por inspección paraconjuntos muy grandes no tienen cabida en la IA.Muchos conjuntos tienen procedimientos de decisión que no

entrañan la inspección. Un ejemplo es el conjunto de las oracionesespañolas que tienen menos de 100 caracteres (para comprobar siuna oración dada es miembro del conjunto basta contar los carac-teres). Sin embargo, algunos conjuntos finitos no tienen ningún

 procedimiento de decisión aparte de uno de inspección. Las ora-

ciones de este libro forman uno de esos conjuntos. No hay nin-guna regla para generar las oraciones de las que pueda sacar partidoun algoritmo. Diré que estos conjuntos son «indecidibles salvo me-diante inspección». Si la teoría de la cognición contuviera grandesconjuntos indecidibles salvo mediante inspección, sería mal nego-cio para la IA.

Un conjunto infinito es un conjunto que contiene al menos tantosmiembros como números enteros hay. Si un ser eterno empezara a

contar los miembros de un conjunto infinito, uno, dos, tres, cuatro...,entonces, por muy grande que fuera el número al que llegara, siemprele quedarían miembros que contar. Los conjuntos infinitos no sonnecesariamente cosas exóticas. Se puede construir un conjunto infi-nito extremadamente aburrido a partir nada más que de la oración«Alfredo es un tipo corriente» y la regla si X es un miembro del con-

Page 347: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 347/416

Un nuevo punto de partida para la IA 351

 junto, también lo es «es falso que X»* He aquí los primeros de los infinitos miembros del conjunto.

Alfredo es un tipo corriente.

Es falso que Alfredo es untipo corriente.

Es falso que es falso queAlfredo es un tipocorriente.

Es falso que es falso quees falso que Alfredoes un tipo corriente.

 Ejercicio

Este conjunto infinito es decidible. Esboce un procedimiento de

decisión para él (la nota 43 da la respuesta).La lógica ofrece ejemplos dé conjuntos decidibles e indecidibles.

El conjunto de las oraciones válidas de lo que se conoce como lógicaveritativo funcional es infinito y decidible. La lógica veritativo funcional es la rama de la lógica que se ocupa de las expresiones «si-en-tonces», «y», «es falso que» y «o». Una oración valida es una oraciónque es verdadera pase lo que pase, verdadera bajo todas las circunstancias. Un ejemplo de oración válida en lógica veritativo funcionales «Alfredo es un tipo corriente o es falso que Alfredo sea un tipo corriente». El siguiente escalón después de la lógica veritativo funcionales la lógica cuantificacional de primer orden. Los cuantificadores son«algunos» y «todos». En el lenguaje de la lógica cuantificacional(pero no en el de la lógica veritativo funcional) se pueden formar oraciones tales como «Todas las zarzas tienen espinas» y «Algunos lógicos tienen espinas». Los libros de lógica rebosan de ejemplos de ora

ciones válidas de lógica cuantificacional: «Si es falso que en el bartodo el mundo esté borracho, entonces en el bar alguien no está bo-43

43 El procedimiento de decisión emplea una regla recursiva: para que X sea un miem bro, X debe o bien ser «Alfredo es un tipo corriente» o X debe ser de la forma «es falsoque Y», donde Y es un miembro. [La regla es recursiva porque define la pertenencia (deX) én términos de pertenencia (de Y); véase la sección 4.2.]

Page 348: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 348/416

352 Inteligencia artificial. Una introducción filosófic

rracho», «todo el mundo ama a Susana o alguien no ama a Susana»«si todo lo que hay en la casa me pertenece o me pertenece, entoncetodo lo que hay en la casa me pertenece», y así sucesivamente. E

conjunto de las oraciones válidas de la lógica cuantificacional de primer orden es infinito e indecidible. (Lo demostró por vez primer;Church44.) Todo intento de formular un algoritmo para comproba,la validez de cualesquiera enunciados arbitrarios de la lógica de primer orden está abocado al fracaso. Cualquier procedimiento que s<nos ocurra está destinado a fallar, a dar a la larga respuestas errónea:o no darlas, al menos tantas veces como dé respuestas correctas. N<hay ningún procedimiento de decisión para el conjunto de las oraciones válidas de la lógica cuantificacional de primer orden.

Sin embargo, este conjunto no es inabordable computacional-mente. Hay un algoritmo que cumple las siguientes condiciones45.

1. Siempre que se aplique el algoritmo a una oración válida d<lógica cuantificacional de primer orden, emitirá (dándole tiempo suficiente) la respuesta «Sí, esta oración es válida.»

2. Siempre que se aplique el algoritmo a una oración de logicscuantificacional de primer orden que no sea válida, o bien dará el re*sultado «No, esta oración no es válida» o no dará ninguna respuesta(esto es, se quedará computando «para siempre»: en la práctica hastaque alguien lo corte o se le acabe la memoria y se estropee).

Un algoritmo que cumple estas dos condiciones se llama procedimiento de semi-decisión. Si hay un procedimiento de semidecisión

 para un conjunto S, se dice que S es  semidecidible. Toda respuestaque da un procedimiento de semi-decisión es correcta, y cada vez quese aplica el algoritmo a una oración que pertenece al conjunto, da unarespuesta correcta, si esperamos bastante. Cuando el algoritmo seaplica a una oración que no pertenece al conjunto puede dar una res

 puesta (la correcta) o puede no acabar sus cálculos.¿Se ve por qué un procedimiento de semidecisión no es un proce

dimiento de decisión? El punto fastidioso es la advertencia de que es peremos lo suficiente. Si estamos comprobando una oración y no saleninguna respuesta, entonces, a pesar de lo que esperemos, nunca po

44 Church, A., «A  Note on the Entscheidungsproblem».45 En realidad hay varios. Dos de los mejor conocidos los proporciona el método de

los árboles de verdad y el método de resolución, respectivamente.

Page 349: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 349/416

Un nuevo punto de partida para la IA 353

dremos tener la seguridad de si el algoritmo está a punto de pronunciarse, quizá positivamente, o si la oración es de las inválidas para lasque el algoritmo nunca emite un resultado.

¿Hay conjuntos no semidecidibles, esto es, conjuntos para los queni siquiera haya un procedimiento de semidecisión? Sí. La lógica,otra vez, ofrece un ejemplo. Se sabe que el conjunto de las oracionesválidas de la lógica cuantificacional de segundo orden  no es semideci-dible. La lógica de primer orden se ocupa de expresiones que dicenque las cosas  tienen propiedades y tienen relaciones con otras cosas:«todas las cosas tienen masa», «algunas cosas tienen la propiedad decon lógico y de tener espinas», «hay alguna cosa que tiene la relaciónser mayor que con todas las otras cosas». El lenguaje de la lógica desegundo orden no sólo nos permite cuantificar sobre cosas, sino so

 bre las propiedades que tienen las cosas y las relaciones que unas cosas tienen con otras. Es decir, en el lenguaje de la lógica de segundoorden podemos escribir oraciones que contienen expresiones como«toda propiedad que» y «hay algunas relaciones que». En el lenguajede la lógica de segundo orden (pero no en el de la lógica de primer

orden) es posible hacer enunciados como «Jules y Jim tienen algunas propiedades en común», «toda cosa tiene alguna propiedad», «Napoleón tenía todas las propiedades necesarias para ser un buen general»y «todas las relaciones constitucionales que hay entre el presidente yel Senado de los Estados Unidos, las hay también entre el primer ministro británico y la Cámara de los Comunes». El conjunto de lasoraciones válidas de la lógica de segundo orden es intratable compu-tacionalmente como tal. Cualquier intento de escribir un algoritmo

que diga «Sí, es un miembro», cuando se aplica a un miembro de unconjunto (y nunca cuando se aplica a algo que no pertenece) estácondenado al fracaso. No hay tal algoritmo: lo cual significa que esun conjunto de oraciones no semidecidible.

Hay una conexión íntima entre el concepto de que un sistema seacalculable algorítmicamente y el concepto de que un conjunto sea semidecidible. Sean los miembros de S descripciones de la conducta en-trada/estado/salida de un sistema B. Esto es, cada miembro de B esde la forma «Si el sistema B recibe la entrada I mientras su estado interno es X, entonces pasa al estado Y y produce la salida O». S contiene todas las oraciones verdaderas relativas a B que tienen estaforma. (En algunos tipos de sistemas, los parámetros de estado interno sobran, y en algunos sistemas la entrada a veces producirá uncambio de estado, pero no una salida.) A menos que S sea semidecidi-

Page 350: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 350/416

354 Inteligencia artificial. Una introducción filosófica

 ble, B no será calculable algorítmicamente. Si S no es semidecidible*no puede haber ningún algoritmo que empareje cada descripción dela entrada de B con una descripción correcta de la salida consiguiente

(si la hay).En el caso particular de que el sistema B sea el cerebro humano,

llamaré a este conjunto de descripciones de la conducta entrada/es^tado/salida B. Los miembros de B son oraciones muy complicadas.Cada una recoge la salida total (eléctrica y química) que produce elcerebro en respuesta a una entrada total particular recibida mientrasel cerebro está en un estado interno (total) específico.

¿Es B infinito? Ésa es una cuestión empírica cuya respuesta noconocemos. Es cierto que el conjunto correspondiente en el caso deuna máquina universal de Turing es infinito, puesto que hay infinitasentradas posibles (infinitas maneras de inscribir ceros y unos en lacinta ilimitada antes de poner en marcha la máquina). Mucha gentecree que hay buenas razones a primera vista para creer que también 1es infinito. Es cierto, desde luego, que un cerebro sólo puede proce-sar una cantidad finita de entradas finitas en su finita vida. Pero no es

evidente que sólo haya una cantidad finita de entradas  potenciales dela que salgan las entradas reales que encuentra un cerebro dado. Lasentradas potenciales parecen ilimitadas, igual que en el lenguaje co-mún hay un número ilimitado de oraciones (véase el examen de la

 productividad de la sección 9.6). Si el número de entradas potencialeses infinito, entonces B es infinito, porque B contiene todas las des-cripciones entrada/estado/salida, potenciales y actuales.

Lo mismo ocurre con los estados. Cada cerebro sólo puede adop-

tar un número finito de estados en su vida, pero el conjunto de esta-dos potenciales del que se extrae esta cantidad finita puede ser infi-nito. (De manera análoga, el potencial eléctrico de una membranacelular sólo puede tomar un número finito de valores en el curso dela finita vida de la célula, pero hay un número indefinido de valores posibles entre los valores máximo y mínimo de la membrana del cualse obtiene el conjunto de valores reales.) «Pensar que P» es un ejem- plo de estado interno, y ciertamente parece que no hay límite al nú-mero de cosas diferentes que una persona puede pensar. Como diceJerry Fodor:

... los pensamientos que una persona abriga a lo largo de una vida mentalcomprenden un subconjunto relativamente asistemático de la enorme varie-dad de pensamientos que podría haber abrigado si hubieran tenido la oportu-

Page 351: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 351/416

Un nuevo punto de partida para la IA 355

nidad de surgir. Por ejemplo, probablemente nunca se le ha ocurrido que enlos canguros no crece hierba. Pero, una vez llamada la atención sobre ese

 punto, es una idea que somos perfectamente capaces de abrigar y,  probable

mente admitir46.

¿Cuántas oraciones verdaderas se pueden producir a partir de losiguiente sustituyendo k por números? ¿Un número finito o infinito?

Alguien puede pensar que 1 es menor que k.

(Los números muy grandes se prestan mal a la notación lineal co

mún, pero recordemos que el cerebro no está restringido a esta notación. Puede usar una notación exponencial (3,14159 x 105398), introducir abreviaturas (61 x (3,9)ww, donde w = 7954, cambiar las bases,etc.). Si el número de oraciones verdaderas que se puede producir esinfinito, el número de pensamientos potenciales es infinito; si el número de pensamientos potenciales es infinito, el número de estadosinternos potenciales es infinito; y si el número de estados internos esinfinito, entonces B es infinito47.

¿Es B decidiblé? No lo sabemos. ¿Es, por lo menos, semidecidi- ble? No lo sabemos. Si B no es semidecidible, el cerebro humano noes calculable algorítmicamente48. Aunque B resultara ser finito podría ser indecidiblq excepto mediante inspección. La existencia, en

46 Fodor, «Fodor’s Guide to Mental Representation», p, 89. Véase también  Psy- chosemanticSy  pp. 147-8.

47 Una máquina de Turing sólo puede tener un número finito de estados (de otro

modo no se podrían especificar las transiciones de estado por medio demna tabla finitade estados). Hodges atribuye a Turing la «audaz sugerencia» de que el conjunto de losestados potenciales de la mente humana es también finito (Alan Turing: fTbe Enigma, p.105). Sin embargo, lo que pensaba Turing, parece ser, es que una máquina de Turing

 puede simular un ingenio que tenga una cantidad infinita de estados internos empleandosímbolos para representar los estados. «La restricción fa un número finito de estados] no

afecta seriamente a la computación, pues se puede evitar el uso de estados mentales máscomplicados escribiendo más símbolos en la cinta» («On Computable Numbers», p. 250).

48 Marian Boykan Pour-El e Ian Richards han mostrado que las soluciones de la

ecuación de onda de Maxwell no siempre son computables. Las soluciones computablesen un tiempo t  pueden no ser computables en un tiempo t 4- 1 (Pour-El, M. B., y Richards, L, «The Wave Equation with Computable Initial Data such that its Unique Solution is Not Computable»; «Computability and Noncomputability in. Classical Analysis»). No hay razones para pensar que los campos que estas soluciones describen existanen el mundo real. Sin embargo, el resultado de Pour-El y Richards tiene importanciaconceptual. Establece, de forma muy directa, la posibilidad  de sistemas físicos que nosean calculables algorítmicamente.

Page 352: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 352/416

356 Inteligencia artificial. Una introducción filosófica

teoría, de un procedimiento de decisión por inspección podría no tener ninguna aplicación concebible en la IA, dado el tamaño de By la

 pura dificultad de formular y registrar sus miembros. Las ambiciones

de la IA de simular el cerebro dependen de la viabilidad de que hayaun conjunto practicable de algoritmos que puedan generar los miem bros de B 49.

 La demostración de Turing 

Turing mismo demostró en su ensayo de 1936 la existencia de loincomputable. Su demostración es simple y elegante. Por puro entretenimiento, he aquí una versión de ella.

Una secuencia binaria es cualquier secuencia de los dígitos básicos0 y 1. Cada registro de la memoria de un computador contiene unasecuencia binaria. La cinta de cada máquina de Turing que usa el alfa

 beto binario tiene inscrita una secuencia binaria50. Si la cinta es delongitud finita, la secuencia binaria inscrita en ella es, naturalmente,

finita, pero puesto que las máquinas de Turing son abstracciones, se permiten las cintas infinitas y, por tanto, las secuencias binarias infinitas. Simplifica la prueba que voy a dar imaginar que una cinta deuna máquina de Turing siempre contiene una secuencia binaria infinita; así, pasemos por alto las máquinas con cintas finitas. Cualquiercomputación que puede realizar una máquina con una cinta finitatambién la puede realizar una máquina con una cinta infinita.

49 Se puede esperar que, aunque el cerebro no fuera algorítmicamente calculable,fuera, no obstante, «aproximable recursivamente», en el sentido de Rose y Ullian (Rose,G. F., y Ullian, J. S., «Approximation of Functions on the Integers»). Un sistema esaproximable recursivamente si y sólo si hay un algoritmo que computa las descripciones(no necesariamente en tiempo real) de la conducta de entradas y salidas del sistema, demodo que, después de haber generado un numero suficientemente grande de descripciones, la proporción de descripciones incorrectas nunca exceda una cifra preestablecida.Pero, por ahora, eso no es más que una .esperanza, Hay incontables funciones que no son

aproximables recursivamente (teorema 3.2, op. cit, p. 700). (Véase también Horowitz, B.M., «Constructively Nonpartial Recursive Functions».)50. Podemos pasar por alto las máquinas de Turing que no usan el alfabeto binario

(esto es, máquinas que usan tres o más símbolos básicos), puesto que las pueden simularmáquinas que usen el alfabeto binario. También podemos pasar por alto las máquinas deTuring cuyas cintas son infinitas en ambas direcciones, pues las pueden simular máquinas cuya cinta sea infinita en sólo una dirección. Lo mismo ocurre con las máquinas convarías cintas (Minsky, M., Computation: Finite and Infinite Machines, pp. 129-30).

Page 353: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 353/416

Un nuevo punto de partida para la IA 357

Decir que una secuencia binaria es computable  es lo mismo quedecir que hay una máquina de Turing que produce la secuencia comosalida. Supongamos que todas las secuencias binarias computables es

tán listadas una detrás de otra (no importa en qué orden). La lista seextenderá infinitamente hacia abajo y hacia la derecha. La esquina su

 perior izquierda de la lista podría tener este aspecto:

Cinta de la 1.a máquina: 100111100001111...Cinta de la 2.a máquina: 110100010011000...Cinta de la 3.a máquina: 001001101111110...Cinta de la 4.a máquina: 111000000000111...

Estas secuencias son las salidas de las máquinas. En la cinta de lamáquina se inscribe la entrada antes de que comience a funcionar (y,en general, se escribirá encima de ella en el curso de la computación).Leído desde la izquierda, el contenido inicial de una cinta de máquinaconsta de una secuencia binaria finita, la entrada, seguida por una ca-dena infinita de ceros que «rellenan» el resto de la cinta. Si no enten

demos cómo se puede escribir una cadena infinita de ceros, pensemosque la máquina usa unos y espacios en blanco en vez de unos y ceros.La entrada —una cadena finita de blancos y unos— está inscrita alcomienzo de una cinta infinitamente larga vacía (ahora el problema essaber cómo han llegado ahí los espacios en blanco).

Algunas de las máquinas se detendrán: dejarán de escribir en lascintas después de un tiempo finito. Que la máquina se detenga o no,está determinado por la tabla de máquina y la entrada. Algunas má

quinas nunca se detienen. Se embarcan en una secuencia infinita. Sinembargo, hay casos en que, siguiendo las instrucciones de su tabla, lamáquina acaba por obtener todos los dígitos de la secuencia en untiempo finito.

En la lista anterior están todas las secuencias computables.La clave de demostrar la existencia de lo incomputable es especificaruna secuencia binaria que no esté en la lista, y, por tanto, no seacomputable.

El primer paso para especificar esa secuencia es considerar la secuencia binaría infinita cuyo primer dígito es el primer dígito de la

 primera secuencia de la lista, cuyo segundo dígito es el segundo dígito de la segunda secuencia de la lista, cuyo tercer dígito es el tercerdígito de la tercera secuencia de la lista, y así sucesivamente (de estemodo, la secuencia comienza 1110...). Esta es la  secuencia diagonal.

Page 354: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 354/416

358 Inteligencia artificial. Una introducción filosófica

El paso siguiente es sustituir cada cero de la secuencia diagonal por un uno y cada uno por un cero. El resultado se llama el comple-

mento de la secuencia diagonal. El complemento de la secuencia dia

gonal no está en la lista. Esto es fácil de establecer. El complementodifiere de la primera secuencia de la lista en el primer dígito, de la segunda secuencia en el segundo dígito, etc. Esto es consecuencia decómo hemos construido el complemento. Por tanto, el complementode la secuencia diagonal es una secuencia binaria no computable. Sifuera computable estaría en la lista, y no lo está51.

Démonos cuenta de que la lista de secuencias computables binarias se podría haber obtenido de infinitas maneras, pues hay un número infinito de candidatas para ocupar el primer lugar de la lista. Sesigue que hay infinitas secuencias binarias que no son computables.Cada lista tiene su propia secuencia diagonal; por tanto, dado quehay infinitas listas, tiene que haber infinitas secuencias no computables.

Recojamos los frutos. Decir que una secuencia no es computablees simplemente decir que no puede haber una máquina de Turing que

genere esta secuencia sobre su cinta. Llamaré TURING al conjunto detodas las secuencias que las máquinas de Turing pueden generar y

ANTITURING al conjunto de todas las secuencias que ninguna máquina de Turing puede generar. No puede haber ningún algoritmoque compute los miembros de ANTITURING,  pues si lo hubiera, entonces, por la tesis Church-Turing, una máquina de Turing sería ca

 paz de mimetizar el algoritmo y generar un miembro de ANTITU

RING, lo cual es imposible. ANTITURING está más allá del alcance de

la computación.Decir que un conjunto de secuencias infinitas es decidible equi

vale a decir, en primer lugar, que hay un algoritmo que puede generarcada miembro del conjunto y, en segundo lugar, que hay un algoritmo que puede generar cada uno de los elementos no pertenecientesal conjunto. Decir que un conjunto de secuencias infinitas es semide-cidible equivale a decir que hay un algoritmo que puede generar cadamiembro del conjunto, pero no hay algoritmo que genere cada uno

de los elementos no pertenecientes. (Cuando extendemos los conceptos de decidibilidad y semidecidibilidad, introducidos previamente, a

51 Se conoce este argumento como diagonalización. El primero en usarlo fue GeorgCantor en su famosa demostración, aludida en el capítulo 4, de que hay conjuntos másgrandes que el conjunto de los enteros.

Page 355: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 355/416

Un nuevo punto de partida para ia IA 359

conjuntos de secuencias infinitas, tenemos que omitir, evidente»mente, la idea de que un algoritmo pueda establecer la pertenencia ono pertenencia al conjunto en un tiempo finito.)

El conjunto TURING es indecidible, pues como hemos visto, nohay ningún algoritmo que pueda generar cada uno de los elementosque no pertenecen al conjunto. En realidad, TURING no es ni siquierasemidecidible. Esto se debe a que no hay ningún algoritmo único que

 pueda generar cada secuencia binaria computable. Aquí no hay nin»guna paradoja. Aunque cada una de las secuencias computables sea

 producida por un algoritmo, no hay ningún algoritmo que las produzca todas. Como a cada persona la ha producido una madre, perono hay madre que haya producido a todas.

La razón de que no haya tal algoritmo es simple: si lo hubiera, se podría adaptar para que generara un miembro de ANTITURING. Eltruco estaría en parar continuamente el algoritmo. Le dejaríamos

 producir sólo el primer dígito de la primera secuencia computable,sólo los dos primeros dígitos de la segunda secuencia computable,sólo los tres primeros dígitos de la tercera secuencia computable, etc.

Entonces se ejecutaría otro algoritmo que fuera por detrás recogiendo el dígito final de cada una de las secuencias truncadas. Así, entre los dos algoritmos estarían produciendo la secuencia diagonal.Ahora añadimos otro algoritmo que sustituye cada 1 po r un 0 ycada 0 por un 1.^ Entre los tres estarían computando el complementode la secuencia diagonal, lo cual es imposible52.

52 Turing demostró que el conjunto de las secuencias binarias computables es indeci-

dible. Mostró que el conjunto de las que llamaba secuencias binarias  satisfactorias es indecidible. Una secuencia es satisfactoria si y sólo si constituye una codificación —en lenguaje ensamblador, por ejemplo— de la tabla de máquina y contenido inicial de la cintade una máquina de Turing que acabe por detenerse (esto es, cuya cabeza, una vez com pletada la computación, se pare). Por decirlo de manera menos formal, una secuencia satisfactoria equivale a: a) que sea una especificación binaria de un programa y una entrada, b) que el programa aceptará la entrada, computará y terminará felizmente. (Como todoaspirante a programador sabe, no todos los programas son así. Algunos se enredan interminablemente en bucles hasta que se les para por la fuerza.) El resultado de Turing de

que e l conjunto de las secuencias binarias satisfactorias es indecidible se ha venido a denominar Problema de la Parada. Cuando se combina con la tesis Church-Turing, el Pro blema de la Parada produce un resultado sorprendente: no puede haber ningún métodoalgorítmico, aplicable a todo computador C y a todo programa P escrito en el código demáquina de C, que determine si C conseguirá obedecer cada instrucción de P. (Recordemos del capítulo 4 que los programas en código de máquina terminan con una instrucción de detención.) No hay ningún método universal para computar si los programasterminarán felizmente.

Page 356: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 356/416

360 Inteligencia artificial. Una introducción filosófica

En un mismo artículo Turing sacó a la luz la idea de que nuestros procesos cognitivos son calculables algorítmicamente y suministrólos recursos conceptuales para entender cómo eso podría no ocu-

rrir53. El éxito de ventas de Roger Penrose  La nueva mente del empe-rador   contiene muchas meditaciones interesantes sobre la cuestiónque suscita la prueba de Turing. Escribe: «El tipo de problema queintento suscitar es si es concebible que un cerebro humano pueda,

 pertrechado de leyes físicas "no corríputables” adecuadas, compor-tarse "mejor”, en algún sentido, que una máquina de Turing»54.

Los investigadores de la IA suelen decir que tratan de averiguarlas leyes de Maxwell del pensamiento. En el siglo pasado, Maxwell

redujo la electrodinámica a unas pocas y elegantes ecuaciones. Laidea de hacer lo mismo con la cognición es ciertamente atractiva.Minsky habla de la búsqueda de «los tres algoritmos». Usa la metá-fora de un niño que tira tres guijarros a un estanque. El patrón ondu-latorio producido por cada guijarro es muy simple —anillos concén-tricos que se desplazan hacia afuera—, pero la interacción de los tres patrones produce una confusión de ondas y rizos. La esperanza es

 —aunque se está debilitando— que la complejidad de nuestra vidacognitiva también resultará ser producto de un pequeño número deelegantes algoritmos.

La falta de éxito en la búsqueda de las leyes de Maxwell del pen-samiento está desembocando en una nueva perspectiva. Se empieza aver la mente como un revoltijo de muchos algoritmos especializados,un surtido variado de herramientas ad hoc  reunidas por la MadreProgramadora, la más pragmática del universo. La última generación

de sistemas de IA refleja esta nueva imagen. El CYC de Lenat yacontiene unos treinta mecanismos especializados de inferencia.

53 En 1936 Turing sacó someramente a colación la idea de que nuestros procesoscognitivos son calculables algorítmicamente. Después fue más franco. En una conferen-cia dada en 1947, cuando trabajaba en el ACE, se refirió explícitamente al cerebro comomáquina computadora digital («Lecture to the London Mathematical Society», p. 111).

[Su afirmación de 1945 de que iba a «construir un cerebro» se ha hecho famosa (Hodges,A.,  Alan Turing: The Enigmay p. 290).] En «Intelligent Machinery» (p. 16) conjetura«que la corteza cerebral de un niño es una máquina desorganizada, que se puede organi-zar mediante un adecuado... entrenamiento». Y continúa: «La organización podría pro-ducir la modificación de la máquina y su conversión en una máquina universal o algo pa-recido.» [Como ha señalado Justin Leber {An Invitation to Cognitive Science y p. 158), lasideas que contiene este ensayo de Turing son una chocante anticipación del PDP.]

54 Penrose, R., The Emperor's New Mind , p. 172.

Page 357: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 357/416

Un nuevo punto de partida para la IA   361

La IA se polariza en torno a estos dos puntos de vista: un pe-queño número de algoritmos muy poderosos frente a un gran nú-mero de algoritmos más débiles y embrollados. Pero queda una ter-

cera y desalentadora posibilidad. Puede que la mente no tenga muchoque ver con los algoritmos, puede que éstos sólo sean personajes se-cundarios, como mucho.

La escritura tradicional de programas de IA ha unido su destino,claro está, ál supuesto de que los procesos cognitivos son calculablesalgorítmicamente por medio de algoritmos practicables (esto es, algo-ritmos que se pueden ejecutar en tiempo real usando recursos reales).El PDP también está ligado a este supuesto (como he dicho, las redesPDP son sistemas calculables algorítmicamente). No sugiero, ni porasomo, que ese supuesto sea falso. Me limito a indicar que por ahorahay pocas razones, si hay alguna, para pensar que es verdadero.

10.9. Simulación de redes por computador 

Puesto que las redes PDP son calculables algorítmicamente, loscomputadores las pueden simular. La investigación en PDP saca mu-cho partido de esto. Puede sorprender saber que los investigadoresrara vez construyen o estudian redes auténticas: es mucho más con-veniente estudiar simulaciones de computador. La famosa red detiempos pretéritos nunca ha tenido existencia concreta, y el experi-mento descrito en este capítulo se hizo empleando una simulaciónde computador. No es una trampa. Gran parte del trabajo diario con

computadores consiste en mimetizaciones: de terremotos, de explo-siones nucleares, de sistemas meteorológicos, de economías naciona-les, de alas de aviones, etc. A menudo es mucho más convenientetrabajar con una simulación de computador que con la entidadmisma. (Si un equipo de ingenieros aeronáuticos quiere saber el in-cremento del alabeo de un ala que producirá añadir un 5 por 100 al

 peso de los motores, no se dedican a darle vueltas al ala real, sinoque alimentan un modelo de computador con los datos de los nue-vos pesos de los motores y dejan que el programa calcule el incre-mento del alabeo).

Rumelhart y McClelland construyeron un modelo de computa-dor detallado de la red de pretéritos. Esto es, escribieron un pro-grama de computador que contenía las especificaciones del númerode unidades de la red, sus umbrales, el patrón de las interconexiones,

Page 358: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 358/416

362 Inteligencia artificial. Una introducción filosófica

las fuerzas iniciales de las conexiones y la fórmula para ajustar lasfuerzas de las conexiones durante el entrenamiento. El programa cal-cula exactamente la conducta de la red propuesta. Se le dice al com-

 putador que el estrato de entrada de la red está fijado en el patrón co-rrespondiente al verbo « squat », por ejemplo, y el programa calculaque, dados los valores actuales de las fuerzas de las conexiones, la redresponderá con el patrón de salida correspondiente a « squawked ».Estudiar la conducta de la simulación por computador es tan útilcomo estudiar la conducta de la red real, y mucho más conveniente(no es lo menos importante el hecho de que se ahorra el procedi-miento físico de aumentar o disminuir las fuerzas de las conexionesreales, a cambio del más simple cometido de alterar los valores numé-ricos correspondientes del programa).

La capacidad de los computadores para simular redes da lugar auna cuestión filosófica evidente. Según el manifiesto de Rumelhart, sesupone que el PDP es un contrincante serio de la aproximación clá-sica a la IA. Pero ¿cómo puede ser eso, si un programa de compu-tador puede reproducir exactamente la conducta de una red? ¿Son,

al fin y al cabo, compatibles el PDP y la hipótesis del sistema de sím- bolos? Oigamos a representantes de ambos enfoques debatir lacuestión.

CATALINA DEL SÍMBOLO. En mi opinión, el PDP no constituye nin-gún reto para el proyecto de lograr la IA mediante la programaciónde computadores. Eso no significa que yo quiera desacreditar elPDP. Estas redes tienen algunos rasgos fascinantes, como la capaci-

dad de proporcionar un acceso direccionable por el contenido a la in-formación que almacenan. Creo que es muy probable que el PDPaporte muchas ideas significativas a la IA. Sin embargo, me gustaríadestacar que, puesto que un programa puede simular todos los aspec-tos pertinentes de la conducta de una red, la tradicionalista puede co-ger lo que le guste de las propiedades de las redes sin apartarse delenfoque programador de la IA.

MA GNO PARALELO Cierto que, en principio, un programa puede si-mular cada una de nuestras redes. Pero hay que tener cuidado de loque se infiere de eso. Las simulaciones posibles en principio no son,con frecuencia, posibles en la práctica. Hasta ahora hemos podidousar simulaciones de computador en nuestras investigaciones, perosólo porque estudiábamos redes relativamente simples. Aun así, las

Page 359: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 359/416

Un nuevo punto de partida para la IA 363

simulaciones llevan una cantidad de tiempo embarazosa. Por ejem-

 plo, es absurda la idea de usar un computador para simular una red lo

 bastante grande como para mostrar auténtica inteligencia. Nos podría-

mos morir esperando.

CATALINA Sí, los computadores disponibles, con su arquitecturaVon Neumann, no son lo bastante rápidos para hacer practicable la

simulación de redes de gran tamaño. El rasgo más notable de la ar-

quitectura Von Neumann es el modo secuencial de operación. Así se

han construido desde el comienzo. Sin embargo, en tiempos recien-

tes, se han empezado a dejar sentir las limitaciones de la arquitectura

Von Neumann. Por ejemplo, nos gustaría construir sistemas expertos

con decenas de miles de reglas de inferencia, pero un programa de ese

calibre sería demasiado lento. Por ahora el límite práctico está en

unos pocos miles. Por eso mucha gente decimos que los días de la ar-

quitectura Von Neumann han pasado. Muchos laboratorios están

construyendo computadores experimentales con cantidades enormes

de unidades procesadoras que operan en paralelo. Dentro de pocos

años, las máquinas Von Neumann serán piezas de museo.

MAGNO También nosotros estamos experimentando con diseños de

soportes físicos paralelos. Al fin y al cabo, el procesamiento paraleloes la esencia del PDP. Lo que dice usted me suena a que desea que

unamos nuestros proyectos.

CATALINA Hay puntos de contacto, por supuesto, pero tengamos

cuidado de no confundir lo fundamental. Nuestro desacuerdo no serefiere al procesamiento paralelo. El meollo de la disputa es la mani-

 pulación de símbolos. Nosotros la queremos y ustedes dicen que ño.

Las máquinas paralelas que tenemos en perspectiva seguirán almace-

nando información por medio de un código simbólico, y las opera-

ciones fundamentales de esas máquinas seguirán consistiendo en ma-

nipulaciones, sensibles a la estructura, de fragmentos de este código.

Mientras que, por recordarle una de sus propias divisas, el medio bá-

sico de intercambio en el PDP no son los símbolos, sino la excitación

y la inhibición. Volviendo ahora al tema de la simulación, estoy de

acuerdo en que un computador secuencial no podría simular una red

compleja en un lapso razonable. Sin embargo, un computador profu-

samente paralelo debería ser capaz de realizar una simulación en

tiempo real de la red más complicada que a ustedes se les pueda ocu-

Page 360: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 360/416

364 Inteligencia artificial. Una introducción filosófica

rrir. Eso, desde luego, no lo podemos demostrar en el estadio actual,

 pero creemos que es una conjetura bastante razonable. Por tanto,

sigo manteniendo mis posiciones iniciales. Puesto que es verosímil

que un manipulador de símbolos pueda simular la conducta de redesarbitrariamente complejas, no veo por qué el PDP es un reto para la

tesis de que la manipulación de símbolos es una base adecuada para

la IA.

MAGNO  No estoy satisfecho. Está usted en arenas filosóficas move

dizas con esas cosas que dice sobre la simulación. La hipótesis del sis

tema de símbolos afirma que los computadores pueden pensar real

mente, no que puedan simular el pensamiento. Me parece que, si

tenemos razón cuando afirmamos que el cerebro humano no mani

 pula símbolos, entonces su hipótesis se viene abajo. Me voy a expli

car. Supongamos por un momento que el cerebro humano es una

madeja enormemente complicada de innumerables redes PDP, que

no hay programas ni símbolos.

CATALINA ¡Vaya camelo de supo sición!

MAGNO  No se preocupe. Permítame hacer la suposición por mor

del argumento y veamos dónde nos lleva. Supongamos, además, que

un equipo de programación se las arregla para disponer una perfecta

simulación por computador de semejante cerebro. Esto es, escriben

un programa que contenga una especificación de las conexiones de

las neuronas, de las fuerzas de las conexiones, etc. El programa es ca

 paz de calcular el comportamiento exacto del cerebro. Ahora imaginemos que la persona de cuyo cerebro se trata está pensando en el

ajedrez. Sería ridículo afirmar que la simulación por computador está

 pensando en el ajedrez. Al fin y al cabo, ninguno de los símbolos del

 programa se refiere a piezas de ajedrez, ni a nada remotamente co

nectado con el ajedrez. Sólo se refieren a unidades de la red, patrones

de conectividad, valores umbrales, y así sucesivamente. Con otras pa

labras, ninguna parte del programa se refiere ál ajedrez: el programa

se refiere exclusivamente a redes. Por tanto, creo que debe usted con

ceder que, aunque el computador simula a alguien que piensa en el

ajedrez, él, por su parte, no piensa en el ajedrez.

CATALINA Sí, ya he oído antes ese estilo de argumentación. Stuart

Sutherland tiene una manera sentenciosa de  presentarlo: «Si... el pen-

Page 361: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 361/416

Un nuevo punto de partida para la IA 365

samiento humano entraña algo más que la manipulación de símbolos, puede que, con todo, fuera posible simular en un computador el pensamiento humano, pero el programa no pensaría, igual que el pro

grama que simula un huracán no provoca vientos»55. Y Searle está enla misma onda: «Nadie supone que.*, la simulación por computadorde un incendio vaya a quemar la casa. ¿Por qué diablos ha de suponeralguien que esté en sus cabales que una simulación computacional delos procesos mentales tiene de hecho procesos mentales?»56

MAGNO ¡Vaya! ¿De verdad me estoy poniendo del lado de JohnSearle?

CATALINA Lo parece. En realidad hemos vuelto al argumento sobresi piensa el robot Turbo Sam (sección 6.3). En mi opinión, si el computador que está en la cabeza de Turbo Sam ejecuta el programa de simulación del cerebro de que habla usted, entonces tenemos un robotque piensa, entiende, y todo lo demás. Al fin y al cabo, Turbo Sam

 podrá jugar al ajedrez, llevar la casa, discutir de filosofía y, en gene

ral, hacerse cargo de los rigores de su entorno como cualquiera quetenga un cerebro auténtico. Incluso es posible que Turbo Sam sea un

 pensador más profundo que el ser humano de cuyo cerebro es elsuyo copia. Demos al robot una atenta educación y puede que su intelecto florezca como nunca lo hizo el de su «donante». En mi opinión, no afecta a nada que el programa de Turbo Sam conste de sím bolos que se refieren a umbrales, patrones de conectivídad, etc. Loque importa es que, como sistema adaptable para la generación de la

conducta, el programa de simulación del cerebro rivaliza con el cere bro auténtico. Esto es lo que certifica que Turbo Sam piensa. Por lotanto, Magno, en este tema está usted estrepitosamente derrotado.

 No es que el PDP suministre las bases para creer que la hipótesis delsistema de símbolos es falsa, sino que la verdad de la hipótesis se sigue de su supuesto de que el cerebro es una malla de redes PDP. Porque si el cerebro es eso, un computador lo puede simular y puede, pues, pensar. Cierto, el programa no empleará la receta tradicional para representar el conocimiento (secciones 4.6, 5.5). Según la receta

55 Sutherland, N . S., «Removing the Mystery from Intelligence». (Para conservar la

continuidad, he escrito «pensamiento» donde el original pone «inteligencia».) No estáclaro si Sutherland se adhiere o no al argumento que cito.

56 Searle, J., Minds, Brains and Science, pp. 37-8.

Page 362: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 362/416

366 Inteligencia artificial. Una introducción filosófica

tradicional, el cerebro se representa directamente. En el programa desimulación del cerebro, el conocimiento se representa indirectamente,a través de una red que «contiene» el conocimiento del caso. Pero eso

no es problema. Si el cerebro conoce las reglas del ajedrez, entoncesuna simulación perfecta del cerebro también las conoce.

 MAGNO   Se ha saltado usted las palabras «en principio», que sondecisivas. Es una cuestión empírica por decidir que un computador posible físicamente pueda ofrecer una simulación en tiempo real deun conjunto enormemente complejo de redes (en especial, si los niveles de actividad de las unidades son continuos en vez de discretos).Cuando dice usted que un computador puede simular el cerebro,

 puede que esté hablando del país de las hadas, igual que John Searlecuando dice que se puede hacer un computador con tuberías de agua,llaves de flotador y llaves de paso (sección 6.4), o el filósofo NedBlock, cuando vislumbra la idea de fabricar un computador con milmillones de personas equipadas de emisores/receptores de radio57.Estas cosas son posibles en principio, pero no son posibles ahí dondeimporta; a saber, el mundo real.

10,10. La batalla del cerebro

Volvamos al mentalés (secciones 9.1, 9.4). Según la ciencia cogni-tiva ortodoxa, el pensamiento humano consiste en la manipulación de«oraciones» de este lenguaje o código interno: el cerebro es un mani

 pulador bio lógico de sím bolos. Según los PDPistas de la línea

dura, sus resultados iniciales indican que el cerebro se las arregla muy bien sin mascar símbolos. Las redes simples de neuronas artificialesaguantan el tipo sin la ayuda de computaciones simbólicas; por tanto,es posible que también lo hagan las redes complejas de neuronas reales. La Madre Naturaleza no tiene un lugar para el mentalés, dicen losPDPistas. ¿Cómo responden los ortodoxos? Oigamos una vez más aCatalina del Símbolo.

«Las redes PDP son grandes mecanismos de memoria. En realidad, conjeturo que una de las primeras aplicaciones comerciales delPDP será la manufactura de unidades especiales de memoria para

57 Block, N., «Troubles with Functionalism», p. 279.

Page 363: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 363/416

Un nuevo punto de partida para la IA 367

asistencia de los computadores convencionales. Pero la cognición esalgo más que memoria, evidentemente, y el problema es que puedeque el PDP no dé para más. Los PDPistas son transparentes a este

 propósito. Escuchemos a Paul Smolensky: “No está nada claro quelos modelos conexionistas [esto es, las redes PDP] tengan la capad-dad... adecuada para realizar tareas cognitivas de alto nivel: hay quesuperar serios obstáculos para que [las redes] puedan ofrecer... una potencia comparable a la de la computación simbólica” 5859.

»Uno de los problemas principales es el de la inferencia. El com putador, como el ser humano, es un motor inferencial en extremo eficiente. Decimos a un computador que Hamish es escocés y que todoslos escoceses comen morcón, y la máquina deduce sin esfuerzo queHamish come morcón. Las redes que no tienen símbolos, por el contrario, parecen incorregiblemente necias en la deducción. Hay incluso razones para dudar de que las redes sin símbolos se las puedanhaber con distinciones composicionales, como la que hay entre  Ha-

mish come el morcón y el morcón come a Hamish59[esto significa renunciar también a la aritmética, porque la red no responde a la dife

rencia entre (1 3 x 4 ) + 9 y l 3 x ( 4 + 9)]. Cuando los patrones deactividad correspondientes a Hamish, el morcón y comer, están activados, no hay nada que le diga a la red quién comió a quién. Las únicas maneras de eludir esto propuestas hasta ahora son ad hoc y artificiales, no el tipo de métodos que se espera que use el cerebro.

»Ninguna de estas dificultades aparece si tenemos símbolos amano y las propiedades concomitantes de la composicionálidad y laestructura recursiva (sección 4.2). En un computador, los significados

de Hamish es escocés y Todos los escoceses comen morcón se representan por medio de estructuras simbólicas relacionadas. La inferencialógica es fácil cuando hay un código simbólico estructurado sistemáticamente en el que hacerla. Esto indica que la manera de dotar a lasredes de la capacidad de que parecen carecer es convertirlas en mani

 puladores de símbolos.»Como hemos visto, pues, una de las primeras tareas que afron

tan los investigadores del PDP es idear la manera de que sus redes encarnen códigos simbólicos. Nuestro consejo, irónico, es: conviertansus redes en computadores auténticos. Es una idea emocionante: la

58 Smolensky, P., «On the Proper Treatment of Connecdonism», p. 2,59 Fodor, J., y Pylyshyn, Z., «Connecdonism and Cognitive Architecture: A Critical

Analysis», pp. 21-7.

Page 364: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 364/416

368 Inteligencia artificial. Una introducción filosófica

ferretería según el modelo de la biología humana es algo con lo quelos informáticos han soñado durante años. Me complace decir que losintentos iniciales de hacer que las redes manipulen símbolos han sido

alentadores. Por ejemplo, David Touretzky ha conseguido simularuna red que ejecuta un programa sencillo que consta de instruccionescomo ésta:

Si en el espac io de t rab a jo se pre sen tan los símbolos GATO, bórra los y p o n en

su lu ga r los sím bo los PERRO60.

»Ahora puedo comentar el problema de si el PDP está en con

flicto con la teoría de que el cerebro es un computador. Una consecuencia de lo que acabo de decir es que el cerebro podría constar deredes PDP y, a pesar de todo, ser un computador. Ambas cosas noson incompatibles, puesto que las redes pueden funcionar como procesadores de símbolos (en efecto, ganan potencia con ello). Los tradi-cionalistas gustan de considerar el PDP como una teoría sobre elmodo como se realiza en el cerebro la computáción simbólica, o, más

 bien, como los inicios esquemáticos de semejante teoría61. En otras palabras, contemplan el PDP como una investigación de los mecanismos que emplea el cerebro para mascar símbolos.

»Un ejemplo aclarará lo que digo. Una potencia desconocida fa brica un robot militar secreto. La CIA roba uno y encarga a un laboratorio de IA la tarea de averiguar cómo funciona su computador. Elequipo tiene dos tareas emparentadas pero diferentes. Una es investigar el aspecto simbólico: qué clase de código usa el computador y

qué programas tiene. La otra es investigar cómo está diseñado elcomputador. ¿Tiene una arquitectura Von Neumann o es un tipo de

 procesador paralelo? ¿Usa un sistema de memoria distribuida y, si esasí, cómo opera? ¿Qué mecanismos usa cuando ejecuta instruccionessi-entonces?, etc. Las cuestiones de este género se denominan a vecescuestiones de realización. Volviendo a la ciencia cognitiva, ésta tienetambién dos niveles de indagación. Está el nivel simbólico, en que nosocupamos de cuestiones tales como cuál es la naturaleza del código

60 Touretzky, D. S., y Hinton, G, E., «Symbols Among the Neurons: Details of aConnectionist Inference Architecture».

61 Broadbent, D., «A Question of Levels: Com ment on McClelland and Rumel-hart»; Fodor, J., y Pylyshyn, Z., «Connectionism and Cognitive Architecture: A CriticalAnalysis», pp. 54-68.

Page 365: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 365/416

Un nuevo punto de partida para la IA 369

simbólico del cerebro, qué operaciones fundamentales de procesamiento de símbolos ha proporcionado la evolución y qué concatenaciones de estas operaciones usa el cerebro cuando ejecuta tareas cog-

nitivas. Segundo, está él nivel de la realización: ¿cómo ejecuta estamasa de kilo y medio de tejido el procesamiento simbólico? ¿En serieo en paralelo? ¿De ambos modos? ¿Con programas almacenados ocon el equivalente biológico de un componente físico modificable(como el ENIAC)? ¿Tiene un control centralizado o algo distinto?¿Cómo se gestiona la memoria? ¿Qué clase de estructuras hacen lasoperaciones fundamentales de manipulación de símbolos? Y así suce

sivamente.»Hay que estudiar el cerebro computacional en ambos niveles.Los PDPistas se inclinan a pensar que su trabajo es una ruptura radical con la ciencia cognitive tradicional. Por nuestra parte, vemos lascosas de otra forma. Saludamos el PDP por su esfuerzo original en elestudio del nivel de la realización del cerebro».

10.11. Observaciones finales

Esta visión del PDP se llama realizacionismo. En el polo opuestoestá el eliminativismo62. El eliminativista cree que se hará manifiesto,cuando avance el PDP, que todas las formas de cognición se puedenexplicar sin aludir a un código cerebral de tipo lingüístico. Los elimi-nativistas dicen que la teoría de que el cerebro es un procesador desímbolos acabará por desaparecer. Entre ambos polos esta el modera-

tivismo. Los moderados esperan que haga falta una diversidad de teorías para explicar por entero el funcionamiento del cerebro. Prevénuna división del trabajo, en la que el enfoque simbólico proporcionará la descripción precisa de algunos procesos cognitivos y el PDP«puro» de otros (el procesamiento del lenguaje y el razonamiento lógico se ponen como ejemplos posibles de lo primero y el reconocimiento de rostros y la mémoria asociativa de lo segundo). Además,los moderados esperan que el estudio del PDP modifique nuestracomprensión de la computación simbólica misma de forma impredecible y quizá radical (los realizacionalistas pueden compartir o no

62 Empleo más o menos la terminología de Pinker, S., y Prince, A., «On Languageand Connectionism: Analysis of a Parallel Distributed Processing Model of Language

Acquisition», p. 77,

Page 366: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 366/416

370 Inteligencia artificial. Una introducción filosófica

esta expectativa). Los moderados señalan que la investigación del usode arquitecturas PDP para procesar símbolos puede conducir al descubrimiento de una exuberancia de operaciones fundamentales igno

tas. Las operaciones fundamentales de los computadores contemporáneos —cambiar, comparar-por-la-derecha, copiar, etc.— formanun modelo inverosímil de las operaciones del cerebro. Las operaciones fundamentales de manipulación de símbolos accesibles en las arquitecturas PDP pueden contener mejores promesas. Así, pues, elmoderado insiste en que, lejos de eliminar la teoría de que el cerebroes un procesador de símbolos, el estudio del PDP bien puede realzarla plausibilidad de la teoría.

Sería prematuro especular sobre cuál de las tres posiciones esacertada. Quizá ninguna (sección 10.8). Hemos traspasado con creceslas fronteras actuales del conocimiento. El realizacionismo, el elimi-nativismo y el moderativismo son las creencias que articulan tres vastos programas de investigación. Estos tres programas compiten entresí, pero también están estrechamente relacionados. Todos son vásta-gos de la IA. Para bien o para mal, estos tres programas de investiga

ción inspirados en el computador dominan los proyectos actuales delestudio del cerebro. Son proyectos que ocuparán a la ciencia cogni-tiva hasta bien entrado el siglo próximo.

Page 367: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 367/416

EPÍLOGO

 Decir que un animal es una máquina es indicar que su modo de fun-cionamiento no difiere esencialmente de las máquinas que los hombres 

 pueden hacer o concebir ... Equivale a decir que los organismos vivos 

están constituidos de tal forma que podemos entenderlos como los in-genieros o los físicos entienden sus sistemas.

Richard L. Gregory 1

En 1745 el filósofo y médico Julien de la Metírie afirmó que losseres humanos son máquinas. Como no es de extrañar, sus opinionesfueron recibidas con hostilidad y escarnio. Escribía para una audien-cia cuyos ejemplos más acabados de máquinas eran los telares y losrelojes mecánicos. No se les puede reprochar que hallaran la teoríaincomprensible y humillante. («El cuerpo no es sino un reloj», expli-caba De la Mettrie con osadía. «El hombre no es sino... una colección

de resortes que se dan cuerda unos a otros... El cerebro tiene múscu-los para pensar igual que las piernas tienen músculos para andar» 2.)

Mientras que a los contemporáneos de De la Mettrie les era arduoentender que los seres humanos pudieran ser máquinas, hoy día al-gunas personas hallamos difícil de entender que no lo sean (quizá us-ted pertenezca, o esté en camino de pertenecer, a ese grupo). El relojera el mejor ejemplo de artefacto que tenía De la Mettrie; entre losmejores de los nuestros se encuentran artefactos cuya conducta estoscamente similar a la del tejido cerebral. Y cuatro décadas de tra- bajo experimental en IA nos han enseñado muchas cosas relativas a la

1 Gregory, R. L., «The Brain as an Engineering Problem», p. 310.2  Mettrie, J. O. de la, Man a Machine, pp. 132.135.

371

Page 368: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 368/416

372 Inteligencia artificial. Una introducción filosófica

riqueza y la flexibilidad potenciales de las máquinas. Es más, posee-mos argumentos filosóficos en favor de la posibilidad de que el pen-

samiento y la acción libre sean propiedades de un artefacto, y tam-

 poco encontramos razones para dudar de que incluso la concienciasea un fenómeno puramente físico.

En 1637 René Descartes, el padre de la filosofía moderna, sostenía

que la capacidad de pensar es nuestra verdadera esencia: eso hace que

seamos lo que somos, lo que nos distingue de los animales3. Cogito,

ergo snmy decía. Pienso, luego existo. Cuando el siglo XX se acaba,,

muchos nuevos seguidores de De la Mettrie añaden sin empacho

«machina» después de «sum». Pienso, luego soy una máquina.

3 Descartes, R., «Discurso de! Método».

Page 369: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 369/416

BIBLIOGRAFÍA

Aikins, J. S. (1983). «Prototypical Knowledge for Expert Systems». Artificial  

 Intelligence, 20, pp. 163-210.Aleksander, I. (comp.) (1989).  Neural Computing Architectures: The Design 

o f BrainLike Machines. Cambridge, MIT Press.Aleksander, L, y Burnett, P. (1987). Thinking Machines: The Search for Arti-

 ficial Intelligence. Oxford, Oxford University Press.Anderson, J. A., y Hinton, G. E. (1981). «Models of Information Processing

in the Brain», En Hinton, G. E., Anderson, J. A. (comps.) (1981). Parallel   Models of Associative Memory.  Hinsdale, Lawrence Erlbaum, pp. 9-48.

 — y Mozer, M. C. (1981). «Categorization and Selective Neurons». En Hinton, G. E., y Anderson, J, A. (comps.) (1981).  Parallel Models o f Associa-

tive Memory, pp. 213-36. —, Silverstein, J. W,, Ritz, S. A., y Jones, R, S. (1977). «Distinctive Features,

Categorical Perception, and Probability Learning: Some Applications ofa Neural Model». Psychological Review , 84, pp. 413-51.

Armstrong, D. M. (1968). A Materialist Theory o f Mind. 

Londres: Routledgeand Kegan Paul.

Atanasoff, J. V. (1940). «Computing Machine for the Solution of Large Systems of Linear Algebraic Equations». En Randell, B. (comp.) (1982). The 

Origins o f Digital Computers. Berlin, Springer-Verlag, pp. 315-35.Augarten, S. (1984). Bit by Bit.  Nueva York, Ticknor and Fiels.

373

Page 370: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 370/416

Austin, J. L. (1962). Sense and Sensibilia.  Oxford: Clarendon (vers. esp. eiTecnos).

Ayer, A. J. (1954). Philosophical Essays. Londres, Macmillan.

Barlow, H. B. (1972). «Single Units and Sensation: a Neuron Doctrine fqPerceptual Psychology?». Perception 1, pp. 371-94,Bates, A. M., Bowden, B. V., Strachey, C , y Turing, A. M. (1953).«Digits

Computers Applied to Games». En Bowden, B. V. (comp.) (1953). Paste than Thought . Londres, Pitman, pp. 286-310.

Bauer, F. L. (1980). «Between Zuse and Rutishauser - The Early Development of Digital Computing in Central Europe», En Metropolis, N*Howlett, J., y Rota, G. C. (comps.) (1980).  A History o f Computing it  

the Twentieth Century. Nueva York: Academic Press, pp. 505-24.Beach, F. A., Hebb, D. O., Morgan, C. T., y Nissen H. W. (comps.) (1960)The Neuropsychology o f Lash ley.  Nueva York: McGraw-Hill.

Bennett, J. (1965). «Substance, Reality, and Primary Qualities».  American  Philosophical Quarterly, 2, pp. 1-17.

Berry, A. (1983). The SuperIntelligent Machine. Londres, Jonathan CapeBerwick, R. Q , y Weinberg, A. S. (1984). The Grammatical Basis o f Linguis-

tic Performance: Language Use and Acquisition. Cambridge, Massachusetts, MIT Press.

Biederman, I. (1987). «Recognition by Components: a Theory of HumarImage Understanding». Psychological Review , 94, pp. 115-47.

Biro, J. L, y Shahan, R. W. (comps.) (1982),  Mind , Brain and Function: Es-

 says in the Philosophy o f Mind. Brighton, Harvester.Blair, P., Guha, R. V., y Pratt, W. (1992). «Microtheories: An Ontologica

Engineer's Guide». MCC Technical Report Number CYC-050-92. Austin, Texas, Microelectronics and Computer Technology Corporation.

Blakemore, C , y Greenfield, S. (comps.) (1987).  Mindwaves. Oxford, Basi

Blackwell.Block, N. (1978). «Troubles With Functionalism». En Savage, C. W. (comp.)

(1978).  Perception and Cognition: Issues in the Foundations o f Psycholo-

 gy. Minneapolis, University of Minnesota Press, pp. 261-325. — (1981). «Psychologism and Behaviourism».  Philosophical Review , 90,

 p p . 5-43.

 — (1983). «Mental Pictures and Cognitive Science». The Philosophical Re-view , 92,499-541.

 — (1990). «The Computer Model of the Mind». En Osherson, D. N., y Las-nik, H. (comps.) (1990). An Invitation to Cognitive Science. Vol. 3. Thinking. Cambridge, Massachusetts, MIT Press, pp. 247-289.

Bloomfield, B. P. (comp.) (1987). The Question o f Artificial Intelligence.

Londres, Croom Helm.Bobrow, D. (1968). «A Turing Test Passed». ACM SIGARTNewsle tter , di

ciembre 1968, pp. 14-15.

374 Inteligencia artificial. Una introducción filosófic

Page 371: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 371/416

Bibliografía 375

Born, I. (trad.) (1971). The BomEinstein Letters. Londres, Macmillan.Boswell, J. Life of Samuel Johnson. Ed. Birrell, A. (1896). Westminster, Ar

chibald Costable.

Bowden, B. V. (comp.) (1953). Faster than Thought. Londres, Pitman.Breton, A. (1924). Manifestes du Surréalisme. Paris, Editions du Sagittaire.Broadbent, D. (1985). «A Question of Levels: Commmet on McClelland

and Rumelhart». Journal of Experimental Psychology: General, 114, pp. 189-192.

Bromley, A. G. (1982). «Charles Babbage’s Analytical Engine, 1838». Annals of the History of Computings 4, pp. 196-217.

Bundy, A. (comp.) (1980). Artificial Intelligence. Edimburgo, EdinburghUniversity Press.

Burks, A. W. {1980). «From ENIAC to the Stored-Program Computer: TwoRevolutions in Computers». En Metropolis, N., Howlett, J., y Rota,G. C. (comps.) (1980). A History of Computing in the Twentieth Cen-tury. Nueva York, Academic Press, pp. 311-44.

 —, Goldstine, H. H., y Von Neumann, J. (1946). «Preliminary Discussion ofthe Logical Design of an Electronic Computing Instrument». Hay unaversión modificada en Randell, B. (comp.) (1982). The Origins of Digital Computers. Berlín, Springer-Verlag, pp. 399-413.

Carpenter, B. E., y Doran, R. W. (comps.) (1986). A. M. Turingfs ACE Re- port of 1946 and Other Papers.  Cambridge, Massachusetts, MIT Press.

Carruthers, P. (1986). Introducing Persons. Londres, Croom Helm.Chisholm, R. M. (1957). Perceiving: A Philosophical Study. Nueva York,

Cornell University Press.Chow, K. L. (1968). «Visual Discriminations After Extensive Ablation of

Optic Tract and Visual Cortex in Cats». Brain Research, 9, pp. 363-6.Church, A. (1936a). «A Note on the Entscheidungsproblem». The Journal of  

Symbolic Logic, 1, pp. 40-1. — (1936b). «An Unsolvable Problem of Elementary Number Theory». The 

 American Journal of Mathematics, 58, pp. 345- 63.Churchland, P. M. (1985). «Reduction, Qualia, and the Direct Introspection

of Brain States». The Journal of Philosophy, 82, pp. 8-28. — (1986). «Some Reductive Strategies in Cognitive Neurobiology». Mind ,

95, pp. 279-310. —, Churchland, P. S. (1990). «Could a Machine Think?». Scientific American, 

262(1), pp. 26-31 (ed. cast, en Investigación y Ciencia, n.° 162, marzo1990).Churchland, P. S. (1986). Neurophilosophy: Toward a Unified Science of the 

 Mind/Brain. Cambridge, Massachusetts, MIT Press.Colby, K. M. (1975). Artificial Paranoia. Nueva York, Pergamon.

 — (1981). «Modeling a Paranoid Mind». Behavioural and Brain Sciences, 4, pp .515-34.

Page 372: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 372/416

376 Inteligencia artificial. Una introducción íilosófic:

Colby, K., Watt, J. B., y Gilbert, J. P. (1966). «A Computer Method of Psychotherapy: Preliminary Communication». The Journal o f Nervous am  

 Mental Disease, 142, pp. 148-152.

 —, Weber, S., e Hilf, F. D. (1971). «Artificial Paranoia». Artificial Intelligent  ce, 2,1-25.

Cooper, D. (comp.) (1993). Companion to Aesthetics. Oxford, Basil Black-well.

Copeland, B. J. (1979). «On When a Semantics is not a Semantics». Journal  

of Philosophical Logic, 8, pp. 399-413. — (1980). «The Trouble Anderson and Belnap have with Relevance». Philo-

 sophical Studies, 37, pp. 325-34.

 — (1984). «Horseshoe, Hook, and Relevance», Theoria, 50, pp. 148-64. — (1985). «Substitutional Quantification and Existence». Analysis, 45, pp. 1-4. — (1986). «What is Semantics for Classical Negation?» Mind , 95, pp. 478-90. — (1993a). «The Curious Case of the Chinese Gym». Synthese (en prensa). — (1993b). «Compatibilism and Modality» (en prensa). — (1993c). «What is Computation?» (en prensa). — (1993d). «Vagueness and Bivalence» (en prensa). — (comp.) (1994).  Logic and Reality: Essays in Pure and Applied Logic In  

 Memory o f Arthur Prior . Oxford, Oxford University Press (en prensa).Copi, I. M. (1961). Introduction to Logic. Segunda edición. Nueva York, Co-llier-Macmillan.

Corballis, M. (1991). The Lopsided Ape . Nueva York, University Press.Cottingham, J., Stoothoff, R., y Murdoch, D. (1985). The Philosophical Wri-

tings o f Descartes. Cambridge, Cambridge University Press, vol. 1.Craik, K. J. W. (1943). The Nature of Explanation. Cambridge: Cambridge

University Press.

Crik, F., y Asanuma, C. (1986). «Certain Aspects of the Anatomy and Phi-siology of the Cerebral Cortex». En McClelland, J. L., Rumelhart, D. E.,y el grupo PDP (1986).  Parallel Distributed Processing : Explorations in 

the Microestructure of Cognition. Vol. 2:  Psychological and Biological  

 Models. Cambridge, Mass: MIT Press, pp. 333-71.

Culbertson, J. T, (1956). «Some Uneconomical Robots». En Shanon, C. E., yMcCarthy, J. (comps.) (1956).  Automata Studies. Princeton, PrincetonUniversity Press, pp. 99-116.

 — (1963). The Minds of Robots:

Sense Data,  Memory Images,

and Beha-viour in Conscious Automata. Urbana, University of Illinois Press.Darrach, B. (1970). «Meet Shakey, The First Electronic Person»,  Life, 

vol. 69, parte 21, 20 noviembre 1970, pp. 58B-68.Davidson, D. (1967). «The Logical Form of Action Sentences». En David

son, D. (1980).  Essays on Actions and Events. Oxford, Clarendon Press,pp. 105-22.

Page 373: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 373/416

Bibliografía 377

Davidson, D. (1973). «Freedom to Act». En Davidson, D. (1980).  Essays on 

 Actions and Events. Oxford, Oxford Clarendon Press, pp. 63-81.—  (1980).  Essays on Actions and Events.Oxford: Oxford Clarendon Press.

Davis, J. L.,  y  Garver, D. L. (1978). «Neuroleptics: Clinical Use in Psychiatry». En Iverson, L. L., Iverson, S. D., y Snyder, S. H. (comps.)(1978). Handbook of Psychopharmacology.  Nueva York, Plenum, vol. 10,pp. 129-64.

Deecke, L., Grozinger, B., y Kornhuber, H. H. (1976). «Voluntary FingerMovement in Man, Cerebral Potentials and Theory».  Biological Cyher 

neticsy 23, pp. 99-119.

Degn, H., Holden, A. V., y Olsen, L. F. (comps) (1987). Chaos in Biological  

Systems. Nueva York, Plenum, vol. 10, pp. 129-64.Dejong, G. (1977). «Skimming Newspaper Stories by Computer»,  Procee-

dings in the Fifth International Joint Conference on Artificial Inteligence. 

Cambridge, Massachusetts Institute of Technology, p. 16.Dennett, D. C., (1978a). Brainstorms: Philosophical Essays on Mind and Psy-

chology. Brighton, Harvester. — (1978b). «On Giving Libertarians What They Say They Want». En Den

nett, D. C. (1978).  Brainstorms: Philosophical Essays on Mind and Psy-

chology. 

Brighton, Harvester, pp. 286-99. — (1978c). «Toward a Cognitive Theory of Consciousness». En Dennett,D. C. (1978). Brainstorms: Philosophical Essays on Mind and Psychology.

Brigthon, Harvester, pp. 149-73. — (1984).  Elbow Room: The Varieties o f Frewill Worth Wanting . Oxford,

Clarendon Press. — (1988). «Quining Qualia». En Marcel, A. J., y Bisiach, E. (comps.) (1988).

Consciousness in Contemporary Science. Oxford, Clarendon Press,

pp. 42-77. — (1991). Consciousness Explained . Boston, Little Brown.Descartes, R. (1641) (1995).  Discurso del método, Alianza Editorial, Madrid,

18.a edición.Doyle, J. (1979). «A Truth Maintenance System». Artificial Intelligence, 12,

pp. 231-72.

Dreyfus, H; L. (1965).  Alchemy and Artificial Intelligence. Santa Monica,Rand Corporation Report P-3244, Die. 1965,

 — (1979). What Computers Can't Do: The Limits of Artificial Intelligence.

Edición revisada. Nueva York, Harper & Row. — y Dreyfus, S. E. (1986).  Mind Over Machine.  Nueva York, Macmil-

lan/The Free Press.Eccles, J. C. (comp.) (1966).  Brain and Conscious Experience. Berlin, Sprin

ger-Verlag. — (1972). «Possible Synaptic Mechanism Subserving Learning». En Karcz-

Page 374: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 374/416

378 Inteligencia artificial. Una introducción filosofía

mar, A. G., y Eccles, J. C. (comps.) (1972).  Brain and Human Behaviour. 

Berlin, Springer-Verlag, pp. 39- 61.Eccles, J. C. (1979). The Human Mystery.  Nueva York, Springer.

Eckert, J. P. (1980). «The ENIAC». En Metropolis, N., Howlett, J., y RotaG. C. (comps.) (1980).  A History o f Computing in the Twentieth Cen-

tury.  Nueva York, Academic Press, pp. 525-39.Elgot, C. C., y Robinson, A. (1964). «Random-Access Stored-Program Ma

chines, an Approach to Programming Languages». Journal o f the Asso-

ciation fo r Computing Machinery, 11, pp. 365-99.Elman, J. D., y Zipser, D. (1988). «Learning the Hidden Structure of Spe

ech». Journal o f the Acoustical Society o f America 83, pp. 1615^29.

Ernst, G. W,, y Newell, A. (1969). GPS: A Case Study in Generality and   Problem Solving . Nueva York, Academic Press.Feigenbaum, E. A., y Feldman, J. (comps.) (1963). Computers and Thought  

 Nueva York, McGraw-Hill.Feldman, J. A., y Ballard, D. H. (1982). «Connectionist Models and theii

Properties». Cognitive Science, 6, pp. 205-54.Fleck, J. (1982). «Development and Stablishment Lin Artificial Intelligence».

En Bloomfield, B. P. (comp.) (1987). The Question o f Artificial Intelli-

 gence. 

Londres, Croom Helm, pp. 106-64.Flew, A. (1955). «Divine Omnipotence and Human Freedom». En Flew, A.,y MacIntyre, A. (comps.)  New Essays in Philosophical Theology. Londres, SMC Press.

 — y MacIntyre, A. (comps.)  New Essays in Philosophical Theology. Londres, SMC Press.

Fodor, J. A. (1975). The Language of Thought.  Nueva York, Thomas Y.Crowell [hay ed. cast. (1985):  El lenguaje del pensamiento , Madrid,

Alianza Editorial]. — (1985). «Fodor’s Guide to Mental Representation, The Intelligent Auntie's Vade-Mecum». Mindy 94, pp. 76-100.

 — (1987).  Psychosemantics: The Problem o f Meaning in the Philosophy of  

 Mind . Cambridge, Massachusetts, MIT Press. — y Pylyshyn, Z. (1988). «Connectionism and Cognitive Architecture: A

Critical Analysis». En Pinker, S., y Mehler, J. (comps.) (1988). Connec-

tions and Symbols. Cambridge, Massachusetts, MIT Press, pp. 3-71.

Frankfurt, H. G. (1971). «Freedom of the Will and the Concept of a Person». En Frankfurt, H. G. (1988). The Importance o f What We Care 

 About : Philosophical Essays. Cambridge, Cambridge University Press, pp. 11-25.

 — (1976). «Identification and Externality». En Frankfurt, H. G. (1988). The 

 Importance o f What We Care About: Philosophical Essays. Cambridge,Cambridge University Press, pp. 58-68.

Page 375: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 375/416

Bibliografía 379

Frankfurt, H. G. (1988). The Importance o f What We Care About : Philosohi 

cal Essays. Cambridge, Cambridge University Press.Freud, S, (1932). Nene Folge der Vorlesungen zur Einführung in die Psychoa-

nalyse. Frankfurt, S. Fischer Verlag.Fuller, L. L. (1958). «Positivism and Fidelity to Law - A Reply to ProfessorHart». Harvard Law Review , 71., pp. 630-72.

Gazzaniga, M. S; (1988). «Brain Modularity: Towards a Philosophy of Conscious Experience». En Marcel, A. J,, y Bisiach, E. (comp.) (1988). Cons-

ciousness in Contemporary Science. Oxford, Clarendon Press, pp. 218-38. —, Bogen, J. E., y Sperry, R. W. (1965). «Observations on Visual Perception

After Disconnection of the Cerebral Hemispheres in Man».  Brain, 8,

 pp. 221-36. —, Le Doux, J. E. (1978). The Integrated Mind.  Nueva York, Plenum.Gelernter, H., Hansen, J. R., y Loveland, D. W. (1960). «Empirical Explora

tions of the Geometry Theorem Proving Machine». En Feigenbaum,E. A., y Feldman, J. (comps.) (1963). Computers and Thought . NuevaYork, MacGraw-Hill, pp. 153-63.

Gentzen, G. (1934). «Investigations Into Logical Deduction». En Szabo,M. E. (comp.) (1969). The Collected Papers of Gerhard Gentzen. Ams

terdam, North-Holland, pp. 68-131.Ginet, C. (1966). «Might We Have No Choice?». En Lehrer K. (comp.)(1966). Freedom and Determinism.  Nueva York, Random House.

Giuliano, V. E, (1965). «Comments on a Paper by R. F. Simmons». Compu-

tational Linguistics, -.8, pp. 69-70.Gleick, J. (1988). Chaos: Making a N ew Science. Londres, Cardinal.Goldstine, H. H. (1872). The Computer from Pascal to Von Neumann. Prin

ceton, Princeton University Press.

 — y Goldstine, A. (1946). «The Electronic Numerical Integrator and Com puter». En Randell, B. (comp.) (1982). The Origins o f Digital Computers. Berlin, Springer-Verlag, pp. 359-73.

Good, I. J. (1980). «Pioneering Work in Computers at Bletchley». En Metro polis, N., Howlett, J., y Rota, G. C. (comps.) (1980). A History o f Compu-

ting in the Twentieth Century.  Nueva York, Academic Press, pp. 31-45.Goodall, J. van Lawick (1971). In the Shadow of Man. Londres, Collins.Gregory, R. L. (1961). «The Brain as an Engineering Problem». En Thorpe,

W. H., y Zanwill, O. L. (comps.) (1961). Current Problems in Animal   Behaviour . Cambridge, Cambridge University Press, pp. 307-30.

 — (comp.) (1987). The Oxford Companion to the Mind. Oxford, OxfordUniversity Press (hay ed. cast.: (1995),  Diccionario Oxford de la Mente,

Alianza Editorial, Madrid).Gross, C. G., Bender, D. B., y Rocha-Miranda, C. E. (1974). «Inferotempo-

ral Cortex: A Single-unit Analysis». En Schmitt, F. O., y Worden, F. G.

Page 376: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 376/416

380 Inteligencia artificial. Una introducción filosófica

(comps.) (1974). The Neuro sciences: Third Study Program. Cambridge,Massachusetts, MIT Press, pp. 229-38.

Gruenberger, F. J. (1979). «The History of the JOHNNIAC».  Annals o f the  History o f Computings 1, pp. 49-64.

Guha, R. V. (1990). «The Representations of Defaults in CYC». MCC Technical Report Number ACT-CYC-083-90. Austin, Texas, Microelectronics and Computer Technology Corporation.

 — y Lenat, D. B. (1990). «CYC: A Mid-Term Repon». AI Magazine, Fall,pp. 32-59.

 — y Levy, A. Y. (1990). «A Relevance Based Meta Level». MCC TechnicalReport Number ACT-CYC-040-90. Austin, Texas, Microelectronics andComputer Technology Corporation.

Gunderson, K. (1985). Mentality and Machines. Londres, Croom Helm.Hanks, S., y McDermott, D. (1986). «Default Reasoning, Nonmonotonic

Logics, and the Frame Problem». Proceedings o f the Fifth National Con- ference on Artificial Intelligence , pp. 328-33.

Harlow, J. M. (1868). «Recovery From the Passage of an Iron Bar Throughthe Head». Massachusetts Medical Society Publications, 2, pp. 328-47.

Harth, E. (1982). Windows o f the Mind: Reflections on the Physical Basis of  Consciousness. Brighton, Harvester.

Haugeland, J. (comp.) (1981a),  Mind Design: Philosophy, Psychology, Artifi-cial Intelligence. Cambridge, Massachusetts, MIT Press.

 — (1981b). «Analog and Analog». En Biro, J. I., y Shahan, R. W. (comps.)(1982).  Mind, Brain, and Function: Essays in the Philosophy o f M ind .

Brighton, Harvester, pp. 213-25. — (1985).  Artificial Intelligence: the Very Idea. Cambridge, Massachusetts,

MIT Press.Heiser, J. F., Colby, K. M., Faught, W. S., y Parkinson, R. C. (1980). «Can

Psychiatrists Distinguish a Computer Simulation of Paranoia from theReal Thing?» Journal o f Psychiatric Research, 15, pp. 149-62.Herken, R. (comp.) (1988). The Universal Turing Machine. Oxford, Oxford

University Press.Hinton, G, E. (1985). «Learning in Parallel Networks».  BYTE, abril 1985,

pp.265-73.

 — Anderson, J. A. (comps.) (1981).  Parallel Models o f Associative Memory. Hillsdale, New Jersey, Lawrence Erlbaum.

Hobbes, T. Works. Ed. Molesworth, E. (1839-45). Londres, John Bohn.Hodges, A. (1983). Alan Turing: The Enigma. Londres, Burnett.Hofstadter, D. R. (1980). Godel, Escher, Bach: an Eternal Golden Braid. 

 Nueva York, Basic [hay ed. cast.: (1989), Godel, Escher, Bach, Barcelona,Tusquets].

 — (1982). «Variations on a Theme as the Essence of Imagination». Scientific  American, 247 (4), pp. 14-21.

Page 377: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 377/416

Bibliografía 381

Hofstadter, D. R. (1985).  Metamagical Themas: Questing for the Essence o f   Mind and Pattern. Nueva York, Basic Books.

 — y Dennett, D. C. (comps.) (1981). The Mind's L  Nueva York, Basic

Books.Holden, A. V. (comp.) (1986). Chaos. Manchester, Manchester UniversityPress.

Honderich, T. (comp.) (1988). A Theory o f Determinism: The Mind, Neuros- 

cience , and LifeHopes. Oxford, Clarendon Press.Horowitz, B. M. (1980). «Constructively Nonpartial Recursive Functions».

 Notre Dame Journal o f Formal Logic, 21, pp. 273-6.Hospers, J. (1967). An Introduction to Philosophical Analysis. Londres, Rou-

tledge & Kegan Paul [hay ed. cast. (1984),  Introducción al análisis filosó- fico, Madrid, Alianza Editorial].Hughes, G. E,, y Cresswell, M. J. (1968).  An Introduction to Modal Logic. 

Londres, Methuen.Hume, D. (1748).  An Enquiry Concerning Human Understanding. Ed.

Selby-Bigge, L. A. (1902). Oxford, Clarendon Press [hay ed. cast. (1993), Investigaciones sobre los principios de la moral, Madrid, Alianza Editorial].

Huxley, T. H. (1866).  Lessons in Elementary Psychology. Londres, Mac

millan.Jackendoff, R. (1987). Consciousness and the Computational Mind. Cam

 bridge, Massachusetts, MIT Press.Jackson, F. C. (1982). «Epiphenomenal Qualia». Philosophical Quarterly, 32,

127-36. — (1986). «What Mary Didn’t Know». The Journal o f Philosophy, 83,

 pp. 291-5. — (comp.) (1991). Conditionals. Oxford, Oxford University Press.

Jackson, P. (1986).  Introduction to Expert Systems. 

Wokingham, Addison-Wesley.

Jaynes, J. (1990). The Origin o f Consciousness in the Breakdown o f the Bica-

meral Mind. Segunda ed. Boston, Houghton Mifflin.Jefferson. G. (1949). «The Mind of Mechanical Man».  British Medical Jour-

nal, 25, junio 1949, pp. 1105-10.Johnson-Laird, P. N. (1983). Mental Models: Towards a Cognitive Science o f  

 Language, Inference and Consciousness. Cambridge, Cambridge Univer

sity Press. — (1988). The Computer and the Mind: An Introduction to Cognitive  Science. Londres, Fontana [hay ed. cast. (1990),  El ordenador y la mente: 

introducción a la ciencia cognitiva, Barcelona, Paidós]Kant, I. 1788. Critique o f Practical Reason. Trad, de Beck, L. W. (1949). Chi

cago, University of Chicago Press [hay ed. cast. (1984), Crítica de la ra-

 zón práctica, Madrid, Espasa-Calpe].

Page 378: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 378/416

382 Inteligencia artificial. Una introducción filosófic

Karczmar, A. G., y Eccles, J. C. (comps.) (1972).  Brain and Human Beba 

viour. Berlín, Springer Verlag,Keating, E. G., y Horel, J. A. (1972). «Effects of Prestriate and Striate Le

sions on the Monkey's Ability to Locate and Discriminate VisuaForms». Experimental Neurology, 35, pp. 322-36.

Kilburn, T., y Williams, F. C. (1953). «The University of Manchester Com puting Machine». En Bowden, B. V. (comp.) (1953).  Faster that  

Thought . Londres, Pitman, pp. 117-29.Kohonen, T. (1980). ContentAdressable Memories. Berlin, Springer-VerlagKosslyn, S. H. (1980). Image and Mind, Cambridge, Massachusetts, Harvarc

University Press.

 — (1983). Ghosts in the Mind's Machine: Creating and Using Images in thi  Brain. Nueva York, Norton.

Krantz, D. H., Atkinson, R. C., y Luce, R. D., Suppes, P. (comps.) (1974)Contemporary Developments in Mathematical Psychology. Vol. 2:  Mea-

 surement, Psychophysics, and Neural Information Processing. San Francisco, W. H. Freeman.

Kripke, S. A. (1980). Naming and Necessity. Oxford, Basil Blackwell.Lackner, J. R., y Garrett, M. F. (1972). «Resolving Ambiguity, Effects ol

Biasing Context in the Unattended Ear». Cognition,1, pp. 359-72.Lamb, J. (1977). «On a Proof of Incompatibilism». Philosophical Review , 86,pp. 20-35.

Laplace, P. (1814). Essai Philosophique sur les Probabilités. Segunda ed. París,Courcier [hay ed. cast. (1985),  Ensayo filosófico sobre las probabilidades, 

Madrid, Alianza Editorial].Larson, E. R. (1974). «Honeywell Inc. v. Sperry Rand Corp., et al». US Pa-

tent Quarterly, 180, pp. 673-772.

Lashley, K. S. (1950). «In Search of the Engram». En Beach, F. A., Hebb,D. O., Morgan, C. T., y Nissen, H. W. (comps.) (1960). The Neurophi 

 siology o f Lashley. Nueva York, McGraw-Hill, pp. 478-505.Lavington, S. H. (1975).  A History o f Manchester Computers. Manchester,

 NCC Publications. — (1980).  Early British Computers. Manchester, Manchester University

Press.Lehrer, K. (comp.) (1966). Freedom and Determinism.  Nueva York, Random

House.Leiber, J. (1991).  An Invitation to Cognitive Science. Oxford, Basil Black-well.

Lenat, D. B. (1982). «The Nature of Heuristics».  Artificial Intelligence, 19, pp. 189-249.

 — (1984). «Computer Software for Intelligent Systems». Scientific Ameri-

can, 251 (3), pp. 152-60.

Page 379: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 379/416

Bibliografía 383

Lenat, D. B., y Feigenbaum, E. A. (1991a). «On the Thresholds of Knowledge», Artificial Intelligence, 47, pp. 185-230.

 — y Guha, R. V. (1990).  Building Large KnowledgeBased Systems: Repre-

 sentation and Inference in the C YC Project . Reading, Massachusetts,Adisson-Wesley.Lewis, C. L, y Langford, C. H. (1932). Symbolic Logic. Nueva York, Dover,

(1959).Lewis, D. K. (1971). «Analog and Digital». Nous, 5, pp. 321-7.

 — (1980). «Mad Pain and Martian Pain». En Lewis, D. (1983b).  Philosophi-

cal Papers, vol. 1. Nueva York, Oxford University Press, pp. 122-30. — (1983a). «Postscript to Mad Pain and Martian Pain». En Lewis, D.

(1983b).  Philosophical Papers, vol. 1. Nueva York, Oxford UniversityPress, pp. 130-2.

 — (comp.) (1956). Contemporary British Philosophy, Series 3. Londres,George Allen 51Unwin.

Libet, B. (1985). «Unconscious Cerebral Initiative and the Role of Consciouswill in Voluntary Action».  Behavioural and Brain Sciences, 8, pp. 529-39.

Longuet-Higgins, H. C. (1968). «The Non-Local Storage of Temporal Information». Proceedings o f the Royal Society, Series B, 171, pp. 327-34.

 — (1972). «To Mind Via Semantics». En Kenny, A. J. P., Longuet-Higgins,

H. C., Lucas, J. R., y Waddington, C. H. (1972). The Nature of Mind. Edimburgo, Edinburgh University Press, pp. 92-107.

Lovelace, A. A., y Menabrea, L. F. (1843). «Sketch of the Analytical EngineInvented by Charles Babbage, Esq.» En Bowden, B. V. (comp.) (1953).

 Faster than Thought. Londres, Pitman, pp. 341-408.Lycan, W. G. (1987). Consciousness. Cambridge, Massachusetts, MIT Press.Mabbot, J. D. (1956). «Freewill and Punishment». En Lewis, H. D. (comp.)

(1956). Contemporary British Philosophy, Series 3. Londres, George

Allen 6c Unwin, pp. 289-309.Marcel, A. J., y Bisiach, E. (comps.) (1988). Consciousness in Contemporary 

Science. Oxford, Clarendon Press.McCarthy, J. (1980). «Circumscription - A Form of Non-Monotonic Reaso

ning». Artificial Intelligence, 13, pp. 27-39,171-2. — (1986). «Applications of Circumscription to Formalising Common-Sense

Knowledge». Artificial Intelligence, 28, pp. 89-116. — y Hayes, P. J. (1969), «Some Philosophical Problems from the Standpoint

of Artificial Intelligence». En Meltzer, B. y Michie, D. (comps.) (1969). Machine Intelligence 4. Edimburgo, Edinburgh University Press, páginas 463-502. .

McClelland, J. L. (no publicado). «Models of Perception and Memory Basedon Principles of Neural Organisation».

 — (1987). «The Basis of Lawful Behaviour: Rules or Connections?». The 

Computers and Philosophy Newsletter , 2 (1) pp. 10-16.

Page 380: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 380/416

384 Inteligencia artificial. Una introducción filosófica

McClelland, J. L. y Rumelhart, D. E. (1986). «Amnesia and Distributed Memory». En McClelland, J. L., Rumelhart, D. E., y el PDP ResearchGroup (1986). Parallel Distributed Processing: Explorations in the Micro 

estructure of Cognition. VoL 2: Psychological and Biological Models.Cambridge, Massachusetts, MIT Press, pp. 503-27. —, Rumelhart, D. E., e Hinton, G. E. (1986). «The Appeal of Parallel Distri

 buted Processing». En McClelland, J. L., Rumelhart, D. E., y el PDP Research Group (1986). Parallel Distributed Processing: Explorations in the 

 Microestructure of Cognition.  VoL 1: Foundations. Cambridge, Massachusetts, MIT Press, pp. 3-44 [hay trad. cast. (1992), «El atractivo del

 procesamiento distribuido en paralelo», en Introducción al Procesamiento 

 Distribuido en ParalelosMadrid, Alianza Editorial].

 —, Rumelhart, D. E., y el PDP Research Group (1986). Parallel Distributed  Processing: Explorations in the Microestructure of Cognition. VoL 2: Psy-chological and Biological Models. Cambridge, Massachusetts, MIT Press,(ed. cast, parcial, presentada por J. A. García Madruga, de ambos volúmenes bajo el título Introducción al Procesamiento Distribuido Paralelo,Madrid, Alianza Editorial).

McCorduck, P., Machines 'Who Think , Nueva York, W. H. Freeman. (Vers,esp. en Tecnos).

McCulloch, W. S., y Pitts, W. (1943). «A Logical Calculus of the Ideas Immanent in Nervous Activity», Bulletin of Mathematical Biophysics, 5,

 pp. 115-33.McDermott, D. (1976). «Artificial Intelligence Meets Natural Stupidity». En

Haugeland, J. (comp.) (1981). Mind Design: Philosophy, Psychology, Arti- ficial Intelligence. Cambridge, Massachusetts, MIT Press, pp. 143-60.

 — y Doyle, J. (1980). «Non-Monotonic Logic I». Artificial Intelligence, 13, pp. 41-72.

McGinn, C. (1989). Mental Content . Oxford, Basil Blackwell.Meltzer, B., y Michie, D. (comps.) (1969). Machine Intelligence 4.  Edim

 burgo, Edinburgh University Press.Metropolis, N., Howlett, J., y Rota, G. C. (comps.) (1980). A History of  

Computing in the Twentieth Century. Nueva York, Academic Press. — y Worlton, J. (1980). «A Trilogy of Errors in the History of Compu

ting». Annals of the History of Computings 2, pp. 49-59.Mettrie, J. O. de la (1748). Man a Machine. Trad. Gertrude Bussey (1912).

Illinois, Open Court (1953).Michie, D. (1974). On Machine Intelligence. Edimburgo, Edinburgh Univer

sity Press.Mill, J. S. (1924) (1873). Autobiography. Nueva York, Columbia University

Press.Minsky, M. L. (1967). Computation: Finite and Infinite Machines.  Engle

wood Cliffs, New Jersey, Prentice-Hall.

Page 381: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 381/416

3ibliografía 385

Víinsky, M. L. (comp.) (1968). Semantic Information Processing, Cambridge,Massachusetts, MIT Press.

 — (1974). «A Framework for Representing Knowledge» Una version resu

mida aparece en Haugeland, J. (comp.) (1981).  Mind Design: Philosophy,

 Psychology, Artificia l Intelligence. Cambridge, Massachusetts, MITPress, pp. 95-128.

 — (1984). «Adaptive Control: From Feedback to Debugging». En Selfridge,O. G., Rissland, E. L., y Arbib, M. A. (comps.) (1984).  Adaptive Control  

o f IllDefined Systems. Nueva York, Plenum, pp. 115-25. — (1986). The Society o f Mind.  Nueva York, Simon and Schuster. — y Papert, S. (1969). Perceptrons: An Introduction to Computational Geo-

metry. 

Cambridge, Massachusetts, MIT Press. —, Papert, S. (1972). «Progress Report on Artificial Intelligence». Cam bridge, Massachusetts, MIT AI Lab Memo 252.

Moravec, H. (1988). Mind Children: The Future o f Robot and H uman Inte-

lligence.:Cambridge, Massachusetts, Harvard University Press.Moto-Oka, T. (comp.) (1982). Fifth Generation Computer Systems. Amster

dam, North-Holland. — y otros (1982). «Challenge for Knowledge Information Processing Sys

tems. (Preliminary Report on Fifth Generation Computer Systems.)», enMoto-Oka, T. (comp.) (1982).  Fifth Generation Computer Systems. 

Amsterdam, North-Holland, pp. 3-89. — y Kitsuregawa, M. (1985). The Fifth Generation Computer . The Japanese 

Challenge. Nueva Yolk, Wiley. Nagel, T. (1971). «Brain Bisection and the Unity of Consciousness». Syn-

these, 22, pp. 396-413. —* (1974). «What is it Like to be a Bat?».  Philosophical Review,83, 435-50.

 — (1986). The View from Nowhere. Nueva York, Oxford University Press. Nemirow, L. (1980). «Review of Thomas Nagel’s  M o r ta l Q u estio ns» .

 Philosophical Review,89, pp. 473-7.

 Newell, A. (1980). «Physical Symbol Systems». Cognitive Science, 4,p p .135-83.

 —   (1982). «The Knowledge Level. Artificial Intelligence», 18, pp. 87-127.

 —, Shaw, J. C., y Simon, H. A. (1957). «Empirical Explorations with theLogic Theory Machine: a Case Study in Heuristics». En Feigenbaum,

E. A., y Feldman, J. (comps.) (1963). Computers and Thought , NuevaYork, McGraw-Hill, pp. 279-93. — y Simon, H. A. (1976). «Computer Science as Empirical Inquiry: Symn-

 bols and Search». En Haugeland, J. (comp.) (1981). Mind Design: Philo 

 sophy, psychology, Artificial Intelligence. Cambridge, Massachusetts,MIT Press, pp. 35-66.

 Nisbett, R. E. y Wilson, T. D. (1977). «Telling More Than We Can Know:

Page 382: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 382/416

Verbal Reports On Mental Processes».  Psychological Review , 84, páginas. 231-59.

Osherson, D. N.,  y Lasnik, H. (comps.) (1990).  An Invitation to Cognitive 

Science. 

Vols. 1-3. Cambridge, Massachusetts, MIT Press.Pellionisz, A. J. (1986). «Old Dogmas and New Axioms in Brain Theory». Behavioural and Brain Sciences, 9, pp. 103-4.

 — y Llinás, R. (1979). «Brain Modeling by Tensor Network Theory andComputer Simulation. The Cerebellum: Distributed Processor for Predictive Coordination». Neuroscience, 4, pp. 323-48.

Penrose, R. (1989). The Emperor's New Mind . Oxford, Oxford UniversityPress [hay ed. cast. (1991),  La nueva mente del emperador , Madrid,Mondadori].

Pinker, S. (1984).  Language Learnability and Language Development . Cam bridge, Massachusetts, MIT Press.

 — y Mehler, J. (comps) (1988). Connections and Symbols. Cambridge, Massachusetts, MIT Press.

 — y Prince, A. (1988). «On Language and Connectionism: Analysis of aParallel Distribute Processing Model of Language Acquisition». En Pinker, S., y Mehler, J. (comps.) (1988). Connections and Symbols. Cam

 bridge, Massachusetts, MIT Press..

Poggio, T., y Koch, C. (1985). «Ill-posed Problems in Early Vision: fromComputational Theory to Analogue Networks».  Proceedings o f the Ro-

 yal Society o f London, B226, pp. 303—23.Pour-El, M. B., y Richards, I. (1981). «The Wave Equation with Computable

Initial Data such that its Unique Solution is Not Computable». Advances 

in Mathematics, 39, pp. 215-39. — (1983). «Computability and Noncomputability in Classical Analysis».

Transactions o f the American Mathematical Society, 275, pp. 539-60.

Pribram, K. H., Nuwer, M., y Baron, R. J. (1974). «The Holographic Hy pothesis of Memory Structure in Brain Function and Perception». EnKrantz, D. H., Atkinson, R. C., Luce, R. D., y Suppes, P. (comps.)(1974). Contemporary Developments in Mathematical Psychology. Vol. 2: Measurement ,  Psychophysics, andNeural Inform ation Processing . SanFrancisco, W. H. Freeman, pp. 416-57.

Proudfoot, D. (1993). «Fictional Entities». En Cooper, D. (comp.) (1993).Companion to Aesthetics, Oxford, Basil Blackwell.

Putnam, H. (1964). «Robots: Machines or Artificially Created Life?» en Putnam, H. (1975b).  Mindy Language and Reality. Cambridge, CambridgeUniversity Press, pp. 386-407.

 — (1967). «The Mental Life of Some Machines». En Putnam, H. (1975b). Mindy  Language a n d  Reality . Cambridge, Cambridge University Press, pp. 408-428.

 — (1975a). «Philosophy and our Mental Life», en Putnam, H. (1975b).

386 Inteligencia artificial. Una introducción filosófica

Page 383: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 383/416

Bibliografía 387

 Mind, Reality and Language. Cambridge, Cambridge University Press,pp. 291-303.

Putnam, H. (1975b).  Mind, Language and Reality. Cambridge, Cambridge

University Press.Pyiyshyn, Z. W. (comp.) (1970).  Perspectives On The Computer Revolution.

Englewood Cliffs, New Jersey, Prince-Hall. — (1980). «The "Causal Power” of Machines».  Behavioural and Brain 

Sciences, 3, pp. 442-4. — (1984). Computation and Cognition: Towards a Foundation for Cog-

nitive Science. Cambridge, Massachusetts, MIT Press (vers. esp. enDebate).

Randell, B. (1972). «On Alan Turing and the Origins of Digital Computers».En Meltzer, N., y Michie, D. (comps.) (1972).  Machine Intelligence

 7.

Edimburgo, Edinburgh University Press, pp. 3-20. — (1980). «The Colossus». En Metropolis, N., Howlett, J., y Rota, G. C.

(comps.) (1980).  A History o f Computing in the Twentieth Century.

 Nueva York, Academic Press, pp. 47-92. — (comp.) (1982). The Origins o f Digital Computers. Berlin, Springer

Verlag.Raphael, B. (1976a). The Thinking Computer: Mind Inside Matter . San Fran

cisco, W. H. Freeman. . — (1976b). «The Robot "Shakey” and "His” Succesors». Computers and  

 People 25 (10), p. 7.Ringle, M. (comp.) (1979). Philosophical Perspectives in Artificial Intelligen-

ce. Brighton, Harvester.Rose, F. (1985).  In to the Heart o f the Mind. An American Quest for Artifi-

cial Intelligence.  Nueva York, Vintage Books.Rose, G. F., y Ullian, J. S. (1963). «Approximation of Functions on the Inte

gers». Pacific Journal o f Mathematics, 13, pp. 693-701.Rose, S. (1976). The Conscious Brain. Edición revisada. Hardmondsworth,

Penguin.Rosenblatt, H. (1962).  Principles o f N euro dynamics. Washington, D. C.,

Spartan.Roszak, T. (1986). «Smart Computers ar Insecure Stage». New Scientist , 3 de

abril, 1986, pp. 46-7.Rumelhart, D. E., McClelland, J. L., y el grupo PDP (1986).  Parallel Distri-

buted Processing: Explorations in the Microstructure, o f Cognition. 

Vol. 1: Foundations. Cambridge, Massachusetts, MIT Press [hay ed. cast, parcial(1992),  Introducción al procesamiento distribuido en paralelo, Madrid,Alianza Editorial].

 — y McClelland, J. L. (1986a), «On Learning the Past Tenses of EnglishVerbs». En Rumelhart, D. E., McClelland, J. L., y el grupo PDP (1986). Parallel Distributed Processing: Explorations in the Microstructure of 

Page 384: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 384/416

388 Inteligencia artificial. Una introducción filosófica

Cognition. VoL 2: Psychological and Biological Models. Cambridge, Massachusetts, MIT Press, pp. 216-781

Rumelhart, D, E., y McClelland, J. L. (1986b). «PDP Models and General Issues in Cognitive Science». En Rumelhart, D. E., McClelland, J. L., y elgrupo PDP (1986).  Parallel Distributed Processing: Explorations in the 

 Micro structure o f Cognition. Vol. 1: Foundations. Cambridge, Massachusetts, MIT Press, pp. 110-46 [hay ed. cast. (1992), «Modelos PDP y cuestiones generales de la ciencia cognitiva», en  Introducción al Procesa-

miento Distribuido en Paralelo , Madrid, Alianza Editorial]. —, Hinton, G. E., y McClelland, J. L. (1986). «A General Framework for

Parallel Distributed Processing». En Rumelhart, D. E,, McClelland, J. L.,y el PDP Research Group (1986).  Parallel Distributed Processing: Explo-

rations in the Micro structure o f Cognition. Vol. 1:  Foundations.  Cam bridge, Massachusetts, MIT Press, pp. 45-76 [hay ed. cast. (1992), «Unmarco general para el Procesamiento Distribuido en Paralelo», en  Intro-

ducción al P ro ce sa m ien toop. cit.]. —, Hinton, G. E, y Williams, R. J. (1986). «Learning Internal Representa

tions by Error Propagation», En Rumelhart, D. E., McClelland, J. L.> y elPDP Research Group (1986).  Parallel Distributed Processing: Explora-

tions in the Microstructure of Cognition. Vol. 1: Foundations. Cambridge,

Massachusetts, MIT Press, pp. 318-62 (hay ed. cast: (1992), «El aprendizaje de las representaciones internas por propagación del error», en  In-

troducción al Procesamiento..., op. cit.).Russell, B. (1912). The Problems o f Philosophy. Oxford, Oxford University

Press.Sakitt, B. (1972). «Counting Every Quantum». Journal o f Physiology,223,

pp. 131-50.

Samuel, A. L. (1959). «Some Studies in Machine Learning Using the Game of

Checkers». En Feigenbaum, E. A., y Feldman, J. (comps.) (1963). Com- puters and Thought.  Nueva York, McGraw-Hill, pp. 71-105.

Savage, C. W. (comp.) (1978).  Perception and Cognition: Issues in the Foun-

dations o f Psychology. Minneapolis, University of Minnesota Press.Schank, R. C. (1979). «Natural Language, Philosophy and Artificial Intelli

gence». En Ringle, M. (comp.) (1979).  Philosophical Perspectives in Arti-

 ficial Intelligence. Brighton, Harvester, pp. 196-224. — (1980). «Understading Searle».  Behavioural arid Brain Sciences, 3,

pp. 446-7.

 — (1984). The Cognitive Computer . Reading, Mass.; Addison-Wesley. — y Abelson, R. (1977). Scripts, Plans, Goals and Understanding. Hillsdale,

 New Jersey, Lawrence Erlbaum [hay ed. cast. (1988), Guiones, planes, metas y entendimiento, Barcelona, Paidos].

Schmitt, F. O., y Worden, F. G. (comps.) (1974). The Neurosciences: Third  Study Program. Cambridge, Massachusetts, MIT Press.

Page 385: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 385/416

Bibliografía 389

Searle, J. (1980a). «Minds, Brains, and Programs». Behavioural and Brain 

Sciences, 3, pp. 41724.

 — (1 980b). «A uthor's R esponse» . Behavioural and Brain Sciences, 3, 

pp. 4506. — (1989). Minds, Brains and Science: the 1984 Reith Lectures. Londres, Pen-

guin (hay ed. cast.: (1985), Mentes, cerebros y ciencia, Madrid, Cátedra).

 — (1990a). «Is th e B rain 's M in d a C o m p u ter Program ?». Scientific 

 American, 262 (1), pp. 205. (ed. cast, en Investigación y Ciencia, n.° 162, 

marzo (1990).

 — (1990b). «Is the Brain a Digital Computer?», Proceedings and Addresses of the American Philosophical Association, 64, pp. 2137.

Sejnowski, T. J., y Rosenberg , C. R. (1987), «Parallel Networks that Learn to Pronounce English Text». Complex Systems, 1, pp. 14568.

Selfridge, O . G., Rissland, E. L., y Arbib, M . A. (com ps.) (.1984). Adaptive 

Control of IllDefined Systems. Nu eva York, Plenum.

Shaffer, J. A. (1968). Philosophy of Mind.  En glewo od Cliffs. N ew Jersey, 

PrenticeHall.

Shannon, C. E., y McCarthy, J. (comps.) (1956). Automata Studies.  Prince-

ton, Princeton Un iversity Press.

Shortliffe, E. H. (1976). ComputerBased Medical Consultations: MYCIN. Nu eva York, Elsevier.

Shurkin, J. (1983). «Com puter P ioneer and H is H istor ic Program Still Active  

at Stanford». Stanford, Stanford Univer sity N ew s Service.

 — (1984). Engines of the Mind. Nu eva York, W. W. Norton.

Simon, H. A. (1965). The Shape of Automation: For Men and Management ,Nu eva York, Harper 6c Row .

 — (1977a) «What Com puters M en for Mand and Society». Science, 196, 

p p .118691. — (1977b). «Artificial Intelligence Systems that Understand». Proceedings of  

the Fifth International Joint Conference on Artificial Intelligence.  Cam-

bridge, Massachusetts Institute of Techno logy , pp. 105973.

Simon, H. L., y Newell, A. (1958). «Heuristic Problem Solving: The Next 

Advance in Operations Research». Operations Research, 6, pp. 110.

 — y N ew ell , A. (1964). «InformationProcessing in Com puter and Mand». 

En Pylyshyn, Z. W. (comp.) (1970). Perspectives on the Computer Revo-

lution. Englew ood Cliffs, N ew Jersey, PrenticeHall, pp. 25673.Simons, G. L. (1983). Are Computers Alive f  Brighton, Harvester.

 — (1984). Introducing Artificial Intelligence. Manchester, N C C Publica-

tions. [hay ed. cast (1987), Introducción a la A.  /., Díaz de Santos].

 — (1985). The Biology of Computer Life. Brighton , Harvester.

Sloman, A. (1978). The Computer Revolution in Philosophy. Brighton, Har-

vester.

Page 386: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 386/416

Slote, M. A. (1980) «Understanding Free Will». The Journal of Philosophy, 

77, pp. 13651.

Smith, B. C. (1991). «The Owl and the Electric Encyclopaedia», Artificial 

 Intelligence, 47, pp. 25188.Smolensky, P. (1988). «On the Proper Treatment of Connectionism», Beha 

bioural and Brain Sciences, 217, pp. 123.

Sperry, R. W. (1982). «Some Effects of Disconnecting the Cerebral Hemis-

pheres», Science, 217 , pp. 12236.

Squire, L. R., y ZolaMorgan, S. (1988). «Memory: Brain Systems and Beha-

viour». Trends in Neuroscience, 11, pp. 1705.

Sterelny, K. (1990). The Representational Theory of Mind . Oxford, Basil 

Blackwell.Stern, N. (1979). «The BINAC: A Case Study in the History of Techno-

logy». Annals of the History of Computings 1, pp. 920.

Stich, S. (1983). From Folk Psychology to Cognitive Science: The Case 

 Against Belief . Cambridge, Massachusetts, MIT Press.

Sussman, G. J. (1975). A Computer Model of Skill Acquisition. Nueva York, 

Elsevier. .

Sutherland, N . S. (1986). «Removing the M ystery o f Intelligence». The Ti-

mes Higher Education Supplement , 8, fer., 1986, p. 16.Tho rp, J. (1980). Free Will: A Defence Against Neurophysiological Determi-

nism. Londres, Routledge & Kegan Paul.

Thorpe, W. H., y Zangwill, O. L. (comps.) (1961). Current Problems in Ani-mal Behaviour , Cambridge, Cambridge Un iversity Press.

To ure tzky , D . S., e H inton , G. E. (1985). «Symbols Am ong the Neurons:  

Details of a Connectionist Inference Architecture». Proceedings of the 

 Ninth International Joint Conference on Artificial Intelligence. Los Al-

tos, M organ Kaufmann, pp. 23843.

Trusted, J. (1984). Free Will and Responsibility. Oxford, Oxford University  

Press.

Turing, A. M. (1936). «On Computable Numbers, with and Application to  

the Entscheidunsproblem», Proceedings of the London Mathematical So-ciety, serie, 2,42, (193637), pp. 23065.

 — (1947). «Lecture to the London M athematical Socie ty on 20 February 

1947». En Carpenter, B. E., y Doran, R. W. (comps.) (1986). A. M . Tu-

ring's ACE Report of 1946 and Other Papers, Cambridge, M assachusetts, 

MIT Press, pp. 10624.

 — (1948). «Inte lligent Machinery». En Meltzer, B., y Michie, D . (comps.) 

(1969). Machine Intelligence 5. Edimburgo. Edinburgh University Press, 

pp, 323.

 — (1950). «Computing Machinery and Intelligence». Mind   59, pp. 43360.

Turing, S. (1959). Alan Turing. Cambridge, W. Heffer.

390 Inteligencia artificial. Una introducción filosófica

Page 387: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 387/416

Bibliografía 391

Turkle, S. (1984). The Second Self: Computers and the Human Spirit. Nueva York, S imon and Schuster,

Ullm an, S, (1984). «Visual Routines». Cognition, 18, pp. 97159.

Van Inwagen, P. (1983). An Essay on Freewill. Oxford, Clarendon Press.Von N eum ann, J. (1945). «First Draft of a Report on the E DV AC». Aparece una versión corregida en Randell, B. (com p.) (1982). The Origins of Digi-tal Computers. Berlín, Springer Verlag, pp. 38392.

 — (1951). «The General and Logical T heory o f Autómata». En Pylysh yn, Z. (comp.) (1970). Perspectives on the Computer Revolution. Englewood  

Cliffs, N ew Jersey, PrenticeHall, pp. 87113. — (1958). The Computer and the Brain. N e w Haven, Yale University Press. 

Waldrop, M. M. (1984). «Artificial Intelligence in Parallel». Science, 225,pp. 60810. — (1987). ManMade minds: The Promise of Artificial Intelligence. Nueva 

York, Walker.Waltz, D. L. (1975). «Understanding Line Drawings of Scenes With Sha-

dows». En Winston, P. H. (comp.) (1975). The Psychology of Computer  Vision. Nu eva York, McG raw Hill, pp. 1991.

 — (1982) «Artificial Intelligence». Scientific American, 147 (4), pp. 10122. 

Warren, R. M. (1970). «Perceptual Restoration of Missing Speech Sounds»,Science, 167, pp. 3923.Weiskrantz, L. (1977). «Trying to Bridge Some Neuropsychological Gaps 

Between Monkey and Man». British Journal of Psychology, 68, pp. 43145. — (1986). Blindsight . Oxford, Oxford University Press. — (1987). «N europsycholo gy and the Natu re of Consciousn ess» . En Blake 

more, C. y Greenfield, S. (comps.) (1987). Mindwaves. Oxford, Basil  Blackwell, pp. 30720.

 — «Some Contr ibutions of N europsycholo gy of Vision and Mem ory to the  Problem of Consciousness». En Marcel, A. J., y Bisiach, E. (comps.)  (1988). Consciousness in Contemporary Science. Oxford, Clarendon  

Press, pp. 18399. —■Warrington, E. K., Sanders, H . D ., y Marshall, J. (1974). «Visual Capacity 

in the Hemionopic Field Following a Restricted Occipital Ablation».   Brain, 97, pp. 70928.

Weizenbaum, J. (1966); «ELIZA A Computer Program for the Study of  Natural Language Communication Between Man and Machine»

Com-munications of the Association for Computing Machinery, pp. 3645. — (1976). Computer Power and Human Reason: From Judgement to Calcu-

lation,. San Francisco, W . H . Freeman.Whitehead, A. N., y Russell, B. (1910). Principia Mathematica.  Cambridge, 

Cambridge U niver sity Press.Wiggins, D. (1973). «Towards a Reasonable Libertarianism», En Honderich,

Page 388: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 388/416

T. (comp.) (1973). Essays on Freedom of Action. Londres, Routledge and 

Kegan Paul, pp. 3161.Wilkes, K. «. Yishi, Duh, Um, and Consciousness». En Marcel, A. J., y Bi~ 

siach, E. (comps.) (1988). Consciousness in Contemporary Science. Ox-ford, Clarendon Press, pp. 1641.Winograd, T. A. (1971). Procedures as a Representation for Data in a Com- puter Program for Understanding Natural Language.  Cambridge, Mas-

sachusetts, M IT Project MA C. — (1972). Understanding Natural Language. NuevaYork, Academic Press. — (1975). «Breaking the C om ple xity Barrier Again». SIGPLAN Notices, 10, 

pp.1322. — (1980). «W hat D oes it Mean to Understand Language?» Cognitive Scien-

ce■, 4, pp. 20941. — Artificial Intelligence and Language Comprehension.  Reading, Massa-

chusetts, AddisonWesley. — y Flores, F. (1986). Understanding Computers and Cognition. Norwood , 

N ew Jersey, Ablex.Winston, P. H. (comp.) (1975a). The Psychology of Computer Vision. Nueva  

York, M cGraw Hill.Winston, P. H. (1975b). «Learning Structural Descriptions from Examples». 

En Winston, P. H. (comp.) (1975a). The Psychology of Computer Vision. Nueva York, McGrawHill, pp. 157209.Wittgenstein, L. (1953).* Philosophical Investigations. Oxford, Basil Blackwell 

[hay ed. cast. (1988), Investigaciones filosóficas, Barcelona, Crítica].Wood, C. C. (1987). «Variations on a Theme by Lashley: Lesion Experi-

ments on the Neural Model of Anderson, Silverstein, Ritz and Jones».  Psychological Review, 85, pp. 58291.

W ooldridge, D . (1963). The Machinery of the Brain. Nueva York, McGraw 

Hill.Woolf, V. (1927). To The Lighthouse. Londres, Hogarth.Young, J. Z. (1987). Philosophy and the Brain.  Oxford, Oxford University  

Press.Zuse, K. (1980). «Some Remarks on the History of Computing in Ger-

many». En M etropolis, H., H ow lett, J., y Rota, G. C. (comps.) A History 

of Computing in the Twentieth Century. Nueva York, Academic Press,  p p . 61127.

392 Inteligencia artificial. Una introducción filosófica

Page 389: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 389/416

INDICE ANALITICO

Ablación, 286290

Abu Jaafar Muhammed iba Músa al 

Khuw árizmi, 345 

acceso aleatorio

direccionamiento indirecto y, 122n 

ver también direccionamiento nu-

mérico; memoria 

ACE, 32, 32n, 129n, 360n 

acontecimientos

estatuto ontológico de, 162, 162n, 

163

activación 

continua, 33 0,366  

discreta, 314319,366  

adaptabilidad profusa 

artefactos y, 9396, 97 ,36 5  

caracterización, 93 

en la formulación de la hipótesis 

del sistema de símbolos, 126, 

127

Aikins, J., 60

ajedrez, 27, 30n, 4951, 64, 140, 

150,364,366

ajedrez problema del tablero in-

completo, 140 

Ajena 54, 54n, 88 

aleatoriedad 

cerebro y, 223,241  

en la entrada de la máquina, 242  

Einstein y, 220n 

estimulación sensorial y, 241 

hardware y, 223,223 n 

libertad de la voluntad y, 222226, 

223n, 233 ,234 ,241 ,246  

Turing y, 223,223n, 224 

ver también  determinismo; mecá-

nica cuántica

Aleksander, L, 328, 329, 329n 

ALG OL, 21n 

algorítmica, calculatibilidad 

aproximabilidad recursiva y, 356n 

caracterización, 345347 

cognición y, 348361, 360n

393

Page 390: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 390/416

394 Inteligencia artificial. Una introducción filosófica

ecuación de onda y, 355n  

tesis ChurchTuring y, 346348, 

359n

ver también  algoritmo; decibili dad

algoritmo

aproximabilidad recursiva y, 356n  

en arquitectura analógica, 305 

caracterización, 345347 

cerebro y 349, 355, 356, 356n, 360, 

361

decibilidad y, 348359 l e y e s d e M a x w e l l d e l p e n s a -

miento, 360

no existencia de, 352354, 356, 

358,361

realizabil idad múltiple de, 129, 

346, 349n

teorema de la parada y, 359n 

ver también;  calculabilidad algo-rítmica; decibilidad 

AM, 159 

Amígdala, 289n  

analógico, 25In, 303307, 305n  

Anderson, J., 2 8 9 ,289n  

andro ide , 43 , 91n; ver también 

Turbo Sam 

aprendizajealgoritmos de aprendizaje, 313n, 

321, 321n, 322

argumento de las diversas incapa-

cidades y, 215

argumento de la habitación china, 

339

cerebro y, 3 22 ,332 ,334,33 5  

general ización y , 322 , 323325 , 329

frente a alimentación manual, 81, 127, 160, 165, 166 

en PD P, 313n, 320325, 324n . 

presupone conocimiento, 159 

programas de aprendizaje, 27, 44,

45,4749, 54, 133, 150, 160, 161, 165

Turing y el, 8 1 ,360n 

ver también memoria Armstrong D., 25 ln , 252, 252n 

arquitecturaanalógica, 303307  

cerebro y, 291295 , 366370  

examen, 7476, 8587, 138140,  192n, 350, 356 ,357  

nivel de realización y, 369 

paralela, 293, 313n, 316322, 332, 

333,363

problema de distinguir entre pro-

cesamiento de s ímbolos y no  

procesamiento de símbolos, 331 

procesamiento de símbolos, 108 

126, 291, 292, 308311, 329331, 362369'

Von Neuman, 25, 291295, 291n, 

363,368ver también  PDP; máquina de  

Turing; máquina von Ne um ann  

artificiales, neuronas, ver  PD P  

ASCII, 101, lOln, 102, 108, 110, 

111,191,285  

Ashby, JL, 32n 

Atanasoff, J., 2 4 ,24n 

Augarten, S., 21 n Au stin, J. L., 24 2 ,242n 

avispa cavadora, 93, 93n 

axóñ, ver  neurona

Ayer, Á. J . , 225, 225n, 226, 245,  

245n

Babbage, C., 31n, 129,129n 

Ballard, D ., 28 ln  

Barlow, H., 28 9 ,289n base 2, ver  números binarios 

BASIC; 34,3 5, 10 8,283n, 346n 

Beal, D., 50n 

Bennett, J., 260n  

 Bereitschaftspotential, 218,218n 

Berliner, H ., 50

Page 391: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 391/416

índice analítico 395

Berry, A.y28n

Biederman, L, 305, 306, 306n, 307n  

biestable, elemento, 100, lOOn, 107, 

279,280,286,289,296  BINAC, 22,23,22n, 30 

binaria, secuencia, 356359 

secuencias binarias satisfactorias, 

359n

binarios, núm eros, 101 n, 106, 107, 

111113, l l l n , 116122,191 

binarios, símbolos, 100123 

almacenamiento de, 100, 111, 112, 

289

alternativas a, 107, 108, 129, 274, 

331,359n

argumento de la habitación china  

y, 190193,195197,202  

cerebro y, 129,130,274,279  

composic ional idad y , 101104, 

297

direccionamiento, y 112, 113, 283 

286

ejemplo paradigmático de código  

simbólico, 331

Máquina de Turing y, 206, 207, 

21 On, 211 , 2 11n, 354, 356358 , 

356n, 359n

neurona de M cC ullochP itts y , 

279no com putabilidad y, 356360  

operaciones fundamentales sobre, 

99,100,108123,292  

programas almacenados y, 25n, 

108114,207,359n  

programar con, 108113, 117123 

realizabilidad múltiple de, 101, 

128130, 279 

recursion y, 1 04,105  

redes PDP y , 329331 

representación de las letras y, 101, 

323

representación de números y, 105 

107,115117

representación del conocimiento  

y, 102104, 156, 157, 202 

representación indirecta y, 126n, 

366ver también  código simbólico di-

reccionamiento; lenguaje en-

samblador; manipulación de 

símbolos; secuencia binaria; ta-

blas de verdad 

Bletchley Park, 21, 3 1 ,32n 

Block, N ., 79n, 196n, 296n, 366 

bloques , mundo de, 4043 , 94 , 

132, 144147, 171, ver también 

micromundo  

Bobrow , D., 72n 

Boltzmann, máquina de, 319 

Bosw ell, J., 2 1 7 ,21 7n 

búsqueda, 26, 49, 51, 136143, 165, 

166,177187,273,285 

Cantor, G, 1 2 7 ,127n, 358n 

caos, teoría del, 236 240 ,245  

Carnegie Mellon University, 29, 50, 

52,151,216  

Carruthers, P., 80 

causalidad

conexión necesaria y, 163 

epistemología y, 163 

libertad de la voluntad y, 219221, 

226229,231236,242245  

mecánica cuántica y , 241 

paradoja de la implicación mate-

rial y, 170172

problem a del marco y, 172177 

qualia y 260262

representación de la , 170177,  

170n, 176n

responsabilidad moral y, 235 

valoración de las inferencias y, 

184

ver también  aleatoried.ad; deter 

minismo

Centaur, 60, 60n, 61

Page 392: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 392/416

396 Inteligencia artificial. Una introducción filosófica

centro cerebral del habla, 253, 253n, 

255

gesto y, 253 

cerebelo, 336 cerebro,

aprendizaje y, 322, 332, 334, 335 

argumento de la habitación china, 

y 204211

centro del habla del, 253, 253n,  

255

cerebros divididos, 252256, 253n  

como computador, 19, 30, 54, 97, 

98, 130, 156158, 272311, 354 

356, 355n, 356n, 360, 360n, 366  

'370

comparación con inventos tecno-

lógicos, 98,275  

conciencia y, 65 69,24 7271  

conexiones dentro del, 187, 276, 

276n, 277, 280, 282, 283, 332  

338

degradación e legante del , 290 ,  

290n, 333

del murciélago, 264266  

determinismo y , 220 , 221 , 227 , 

228, 232,249

direccionamiento por contenido  

y, 28 4,2 85 ,285n, 333 

distribución y, 286289  

diversidad de procesam iento en el, 

295, 303, 305307, 310, 369, 370 

finitud del, 354, 35 5 ,355n 

geometría y, 3 36 33 8,337n 

gesto y, 253

hemisferios del, 25 3 25 6,253n 

hologramas y, 287, 288 

no máquina von Neumann, 291 295

no computabilidad y, 349, 355, 

355n, 356, 356n, 360 

operaciones computacionales fun-

damentales, 130, 274, 294, 296, 

307 ,309 , 310, 331, 366370

PDP y , 312329 , 332338 , 348 , 

361 ,364 , 365, 366370 

potencial de aprestamiento y, 218 

procesamiento paralelo en el, 282, 283, 293, 332, 349 

productividad del pensamiento y, 

300307, 355 

qualia y, 260271

química del, 262, 267, 269, 278, 

278n, 335, 336

redundancia y, 199, 286289, 333 

reglas y 156158, 325, 360 

representaciones en el, 130, 156 

158, 274, 289n, 293, 295311,  

298n, 310n, 331, 344, 366370  

símbolos binarios y, 129130, 274, 

279

simulación de, 282, 283, 342344, 

344348, 356,361365  

sistema supervisor y, 251258  

teoría del caos y 239 

tesis ChurchTuring y, 348361  

ver también  arquitectura; deter-

m i n i s m o n e u r o f i s i o l ó g i c o ;  

hardware;  hipótesis fuerte del 

sistema de símbolos; neurona  

cerebros divididos, 252256, 253n  

certeza, factor de, 61 

chimpancés, 79, 88, 94,95 

china, argumento de la habitación, 

188214, 237

interpretación errónea del, 192n  

invalidez lógica del, 195,196  

PD P y, 338344 

Chisholm, R., 299n  

Church, A., 183n, 207n, 345, 345n, 

346, 352, 352nver también  tesis ChurchTuring  

ChurchTuring, tesis, 344360 

argumentos en favor de la, 347  

348

en demostraciones de incomputa 

bilidad, 360

Page 393: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 393/416

índice analítico 397

 procesos cognitivos y, 347360 

versiones de, 344348  

teorema de la parada y, 359n 

Churchland, R M., 265n, 337n, 338, 338n

Churchland, R S., 265n, 291, 338, 338n

ciclo recuperar-operar-almacenar,292

clasificación, problema de la, 325 

329

cláusula cornuta, 176n, 177n, 185n datos inconsistentes y, 185n 

codificación dispersa, 285 

códigos, desciframiento de, 21, 31, 32n

cognitiva, ciencia 

caracterización, 274,275  

fermentos de la, 31 0,3 44  

hipótesis fuerte del s is tema de  

símbolos y, 274, 293295, 296, 332, 344, 366370 

investigación en dos niveles, 368, 369

objeciones de Searle a la, 188211, 338344

perspectivas actuales, 370 

programas de investigación rival, 

274, 293, 369, 370 

reglas y, 13941, 156158, 323329 

vástago de la IA, 370 

. ver también  hipótesis fuerte del sistema de símbo los 

neurociencia; PDP  

cognitivos, computabil idad de los  

procesos, 348361 

ver también  decidibilidad; hipóte-sis fuerte del sistema de símbo-

los ; hipótes i s de l s i s tema de  

símbolosColby, K., 36, 37, 7476, 74n  

color, términos de, 4043, 81, 144, 

145, 171,258

Colossus, 21,21n, 31 

comisurotom ía, 252256, 251 n 

compatibilismo, 229 24 6,229n 

compilador, 1 08 ,110 11 2,283n 

complejidad, barrera de la 146, 186, 187

composicionalidad 

caracterización, 102 

código simbólico, 102, 126, 310, 367369

recursion y, 10 5,10 8,12 6, 367 

símbolos binarios y, 101104, 105,106.331

computabil idad, ver   decidibilidad  

computable, número, ver   secuencia 

computable

computable, secuencia, 357360 

com putacionales, pr im itivos, ver  

operaciones fundamentales 

computadorcerebro como, 19, 30, 54, 97, 98, 130, 156158, 272311, 354356, 355n, 3$6n, 360, 360n, 366370 

comparación con redes, PDP 330 332,361366

con sciente, 18, 91 n, 216 , 248, 250, 

251,257,259,271  

definición de, 123126, 3Ó8311,

330.331libre, 19, 54, 109, 215217, 222, 

223, 223n, 228, 238, 246, 372 

historia de, 2026, 21n33n, 106, 107, 113, 114, 129, 129n, 279,  323

pensante, 17, 18 ,29 33, 51, 53, 54, 64, 65, 69, 6996, 97, 98, 126 

128, 131142, 144151, 188190, 204211, 216217, 273274, 364 

366, 372tesis Church'Turing y, 346349  

ver también  arquitectura; código  

simbólico; hardware; manipula-ción de símbolos; operaciones

Page 394: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 394/416

398 Inteligencia artificial. Una introducción filosófica

fundamentales; programación; 

representación interna; símbo-

los binarios 

conciencia

en cerebros divididos, 252256, 

253n

la ciencia del cerebro tiene poco  

que decir sobre la, 24 7,2 48  

conciencia de las máquinas, 18, 

91n, 216, 248, 250, 251, 258,  

259,271

conductismo y 247  el efecto filtro de Broadbent y la, 

68, 69

ejemplo de conducir un coche, 

25 0,2 51 ,251n, 252 

fabulación y, 253258  

fisicalismo y, 262271, 262n, 263n, 

372

lenguaje del pensamiento y, 274, 296

libertad de la voluntad y, 217, 218  

no necesaria para el pensamiento  

y, 6469, 92

en otras personas, 84, 258, 259,  

264267,269,270  

en otros animales, 253, 263267  

Prueba de Turing y 259n  qual ia y , 258271, 260n, 263n,  

265n, 268n

reconocimiento de palabras, y 66, 

68, 69, 327,328

sent ido bás i co , 249251 , 249n ,  

25 ln, 25 7,259n

significado del término, 248 , 248 n, 

249supervisión interna y, 249n, 251 

2 5 7 ,251n, 258

taxonomía de la, 24 82 51 ,25 7,25 9  

visión ciega y, 67 ,25 2  

dei yo , 24 9,25 1n,253  

ver también  fisicalismo; qualia

condicional, 157, 170177, 181186, 

213,214

ver también  contrafáctico; impli-

cación material; inferencia; ló-gica; ramificar

conductismo, 8489, 247, 248, 310  

conocimiento, 141143,153167  

almacenamiento en arquitecturas 

distribuidas paralelas, 320325, 

333

en ausencia de creencia conscien-

te, 6668por familiarización, 268270, 268n  

libertarismo y, 233 

metáfora grotesca y, 146,151  

modelo de l o s datos , 156158 ,  

156n, 157n, 165, 178, 182 

de otras mentes, 84, 258, 259, 263  

267,263n, 269,270  

representación directa e indirecta 

de, 126n, 366

de tareas específicas, 14 1,1 59  

del yo, 257

ver también  base de conocimien-

tos; epistemolgía; memoria; mi-

cromundos; onto logía; pro-

b le m a d e l c o n o c i m ie n t o ;  

problema del marco; sentido  

común; sistema experto 

conocimientos, base de, 60, 78, 141  

143, 153, 154, 158187, 176n 

actualización de, 142, 143, 147, 

155, 166, 172177 

adaptabilidad profusa y, 126, 127 

búsqueda pertinente en, 177181 

cerebro y, 274 

inconsistencia y, 181187 organización de, 142, 143, 155, 

166,180,186

representación del saber cómo en, 

156,157

sistemas expertor y, 147, 159, 160 

ver también  C Y C ; m e m o r i a ;

Page 395: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 395/416

índice analítico 399

micromundo; pertinencia; pro-

blema del conocimiento; pro-

blema del marco; representa-

ción interna; sentido común; sistemas expertos

conocimiento, ingeniería del , 60, 

160,165,167170

ver también  base de conocimien-

tos; conocimiento; saber cómo  

conocimiento; problema del 

estrategia de micromundos, 144 

148

modelos analógicos del, 305n 

sentido común y, 153156, 158 

161

soluciones propuestas ,en CYC, 

158187, 170n, 174177n, 183n 

185n .

versiones del, 78,142,143  

ver también  base de conocimien-

tos; conocimiento; CYC; mi-

cromundos; pertinencia; pro-

b lema del marco; sent ido  

común; sistemas expertos 

conex ionismo, 320, 338, 367 

ver también PDP

conjuntos, teoría de, 127, 127n, 167 

169, 244, 3499359, 349n, 358n, 

359n

consistencia, 164, 165, 174, 181187, 

182n, 185n, 299

comprobación de la consistencia, 

183

contenido, direccionabilidad por el 

ver  memoria 

contexto

pertinencia y, 178 ,179  

problema de la clasi f icación y,  

327,328

contingente, 23 6,24 0  

contradicción, ver  inconsistencia 

con trafác tico, 168, 170172, 211 , 

227, 232, 233

contrapositiva, 341, 342 

Corballis, M., 307n 

corteza cerebral, 67, 94, 199, 252 

256, 261 , 286290, 288n, 289n, 334n, 337n, 360n 

ver también cerebro 

CPU, ver  unidad central de procesa-

miento

Craik, K., 303n, 305 

Cray, 125,348  

creeencia

argumento de la habitación china, 

193

en caracterización de la adaptabi-

lidad profusa, 93 ,12 6  

elección l ibre y, 227, 228, 232, 

234,244

explicación intencional y, 94, 95 

fabulación y , 256, 257 

lenguaje de pensamiento y, 299, 

300, 301, 302,:307 

paradojas de la intencionalidad y, 

299,300,302,303 , 307 

como producto de manipulación 

de símbolos, 294

como salida de proceso analógico, 

305

supervisión interna y, 25 7  

Crick, F., 334, 334n 

cuántica, mecánica, 217, 221, 223, 

223n, 234, 237, 241 

amplificador cuántico, 223 

cuantificador, 171, 176, 181, 352353 

no clásico, 183n 

sustitucional, 176n 

cuerpo calloso, 253 

ver también com isurotomía Culbertson, J., 86n, 248n 

Cullingford, R., 55n 

CYC, 158187, 160n162n, 165n, 

170n177n, 183n~185n 

axiomas de pertinencia de, 177 

181

Page 396: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 396/416

400 Inteligencia artificial. Una introducción filosófica

cláusulas cornutas y, 176n, 177n, 

185n

descripción de, 158161 

'filosofíay, 161165 inconsistencia y, 181187, 182n, 

185n

inferencia en, 163165, 170177, 

176n, 177n, 181187  

predicciones acerca de, 160, 165 

167,172

onto logíay, 167169 

problema de la proyección tem-poral y, 172177, 173n 

representación de la causalidad en, 

170172, 170n, 174177, 176n  

damas, 27, 28n, 4749, 54, 131, 149  

Darrach, B., 148n

Dartmouth, Conferencia de, 28, 29, 

30n, 31, 51, 54n, 312 

datos, modelo de los, ver   c o n o c i -miento, modelo de los datos 

Davidson, D., 162n 

decidibilidad, 349361, 349n, 359n 

aproximidad recursiva y, 356n  

calculabilidad algorítmica y, 353  

356, 355n

caracterización, 349350 

cerebro y, 354356  del conjunto de secuencias infini-

tas, 358

ecuación de ond a y, 355  

lógica de primer y segundo orden  

y, 1 83 ,265n266n, 351353 

máquinas de Turing y, 356359, 

359n

mediante inspección, 35 0,35 5, 356 no sem idecidibilidad, 353355 

problem a de la parada y, 359n 

semidecidibilidad, 352, 353, 355, 

358

decisión, 91, 92,96,215246  

conciencia y, 250

ver también  e lección; determi  

nismo; libertad de la voluntad  

decisión, problema de la, ver  decidi-

bilidaddecisión, procedimiento de, 348359 

ver  decidibilidad

declarativo, paradigma, ver   conoci-

miento, modelo de los datos; hi-

pótesis del sistema de símbolos  

deducción, ver   implicación; inferen-

cia; lógica; validez 

D eep Thought, 49, 50,131  degradación elegante, 290, 290n, 333  

Dejong, G., 56, 56n 

Dendraí, 60,147  

dendrita, ver  neurona 

D enne tt, D ., 82n, 246, 246n, 25 ln ,  

260n, 262n

Descartes, R., 71 ,263n, 275, 372 

descom posición, árbol de, 105 deseo

compulsivo, 229231 

entraña representaciones, 295 

lenguaje del pensamiento y, 299, 

300,302,307

libertad de la voluntad y, 228235, 

244

paradojas de la intencionalidad y, 299, 300 ,302,303 ,307  

de segundo orden, 230,23 1  

supervisión interna y , 257  

determinismo

de aparatos programados, 217, 

223,223n

caracterización, 220 

compatibil ismo y, 226229, 240 246

inevitabilidad del futuro y, 240  

246

libertarismo y, 231236

lógica y, 24 2,244

de la máquina de Turing, 236

Page 397: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 397/416

Indice analítico 401

mecánica cuántica y, 221, 223n,  

249

neurofis iológico, 219221, 222 

224,227,228, 232, 237, 240, 241 

responsabilidad moral y, 225 , 226, 

235

teoría del caos y, 236240, 245 

ver también  aleatoriedad; libertad 

de la voluntad; predicción 

DEU CE, 33n

direccion am iento, 112, 113, 115, 

123n, 283286, 283n, 284n, 289, 

291,292

acceso aleatorio y, 122n 

indirecto, 25n, 116,122n 

variable, 23n, 25n, 122n 

diagonal, secuencia, 357359 

diagonalización, 35 7 35 9,358n 

digital, 20, 24, 47, 97, 209, 343, 360n 

distribución 

caracterización, 288 

cerebro y , 286289  

hologramas y, 2 8 7 ,287n, 288 

memoria y, 286289 

en PDP, 313 ,334 T

pertinencia y, 180,181  

ver también, PDP  

dolor, 162, 259n, 260, 26 1 ,267n 

insensibilidad congénita al, 267 

puramente biofísico, 268270 

D oy le, J., 164n

D reyfu s, H ., 50n, 63n, 135, 135n, 

136, 141, 141n, 151n, 152, 152n, 

155n, 157n, 157n, 314 

Dreyfus, S., 50n, 63n, 135, 135n, 

136, 152n 

dualismo, 262dualismo de las propiedades, 263n  

dualismo de las sustancias, 262, 

262n

ver también, fisicalismo 

EBCDIC, 101 

Eccles, J., 262

Eckert, J. P., 2325, 25n,31  

ecuación de onda, 355n 

EDSAC, 22n, 30 

ED VA C, 25n, 279 

efectivamente calculable, función, 

207n

efecto Eliza, 62

Einstein, A., 128, 220, 220n, 260,  

310

electrónico, 2124, 21n, 23n, 30, 215, 

247,281,290  

significado de, 21 n 

elección, 215246 

con candidato destacado, 226 

de preferencia nula, 223, 224, 226, 

241

ver también>determinismo; liber-

tad de la voluntad 

Elgot, C , 122n

Eliza, 3739, 43, 62, 65, 7278, 73n, 

78n, 85, 89, 144, 197,208  

empírica, cuestión 

caracterización, 188 

el determinismo neurofisiológico  

com o, 223

la finitud del cerebro como, 354, 

355

la hipótesis fuerte del sistema de 

símbolos como, 211, 273, 275, 

293,294,311

la hipótesis del sistema de símbo-

los com o, 188,203204 

la productividad del pensamiento  

como, 300,354

la realización múltiple como, 205, 

206, 296

la simulabilidad usando recursos reales como, 366

ENIAC, 2325, 23n25n, 30, 31n, 

1 0 6,1 13 ,129n, 279,291, 369 

Enigma, 31n, 32n

ensamblador, lenguaje, 108123, 214, 

359n

Page 398: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 398/416

402 Inteligencia artificial. Una introducción filosófica

entendimiento

artefactos, 19, 39, 5459, 64, 65, 

91, 151,201204,216,217  

conciencia y, 68manipulación de símbolos y, 127, 

188211

PD P y , 338344

Prueba de Turing y, 8082, 85, 86 

representación del problema y, 

139,140

Shrdlu, 144148, 171 

ver también, procesamiento del 

lenguaje; semántica 

ep istem olo gía, 161, 163, 171, ver  también, base de conocimientos; 

conocimiento; ingeniería del co-

nocimiento; problema del conoci-

miento; sistemas expertos 

Ernst, G., 136n, 139n, 140n, 141 

escala, problema de la, 321n  

esencial, propiedad 

de la conciencia, 258 

de los conjuntos, 169 

del ser humano, 371 

del ser pensante, 92, 94 

estados de ánimo, 294 

etiquetado (técnica de programa-

ción), 145, 146, 170172, 174176, 

174n, 175n Eurisko, 132, 159 

ex falso quodlibet, ver Quodlibet  excitación, 314316, 321, 329, 334, 

339

exc luyente , o (d i syunc ión exc lu -

yem e, X O ), 313n

experimento mental, 8486, 8992, 

190193, 199, 200, 204206, 225, 226, 238, 239, 267271, 339343  

expertos, sistemas 

actual ización y búsqueda re le-

vante en, 147 

caracterización, 5963 

conocimiento y, 159,160

CYC y, 160,186

estrategia de los micromundos y, 

146,147 ,159 ,160 

fragilidad de los, 159,165  limitaciones de la arquitectura de 

von Neum ann y, 363 

en medicina, 5962  

peligros de los, 62 ,63 , 159 

representación del conocimiento  

en, 156158, 165 

sentido común y, 159,160  

tratamiento del tiempo en, 147, 

147n

fabulación, 253258  

fallo cuántico, 221,2 36  

Feigenbaum, E., 17n, 18n, 28n, 161n 

Feldman, J., 28n, 281n  

fenoltiourea, 261

fenom enológica, cualidad, 259, 259n 

ver también, qualia 

Ferranti Limited, 22 

Ferranti Mark L, com putador, 22 

Feys, R., 244

fijación de valores en una red PDP, 

317,318, 320,324,362  

fisicalismo

argumentos de Nagel y Jackson  

contra , 263271, 263n~265n, 

267n, 269ncaracterización, 262, 263,263n 

fundamentos para sustentarlo , 

269,270,371

ver también, conciencia; dua-

lismo, qualia 

Fleck,]., 28n

flexión del dedo, 2 18 ,21 8n, 221 

Flores, F., 152n, 153n, 157n Fodor, 130n, 273n, 295n, 299, 299n, 

301303, 301n303n, 307, 355n, 

367n

Fortran, 108, 346n 

fragilidad, 159,165  

Frankel, S., 31n

Page 399: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 399/416

índice analítico 403

Frankfurt, H., 2 3 0 ,230n 

Fredkin, E., 17,18,149  

Freud, S.,65,248 ,272 ,275  

Frump, 56, 58, 59, 132 

fuerte, IA, 338 

fuerza bruta, 140 

Fuller, L., 90n 

función dispersa, 285 

funcional i smo, ver   realizabil idad  

múltiple

fundamentales, operación del com-

putadoren arquitecturas paralelas, 329,

363.366 369 

caracterización, 98100

cerebro y, 130, 274, 294, 296, 307,

309 .310 .331 .366 370 

comparadas con operaciones so-

bre representaciones analógicas, 

305

CPU y, 113,292

en la definición de computador, 

123126

ejemplos de, 99,109 111 ,1141 16,  

123,331

entendimiento y, 18 8193,20 3  

equivalencia de dos conjuntos de, 

125, 125n, 207n

lenguaje ensamblador y, 108122 

de la máquina de Turing, 206, 207, 

212214

redundancia y, 123,124n 

ver también, arquitectura; cere-

bro; código simbólico; manipu-

lación de símbolos; máquina de  

Turing; máquina von Neumann  

Gage, PL , 290 

Garrett, M., 68

Gazzaniga , M. , 251n, 253 , 253n, 

254n, 2 5 5 ,255n, 256 

Gelertner, H., 26n

generalización (en el aprendizaje de 

las máquinas), 322, 323325, 329

geometría

cerebro y, 336338, 337n 

demostración de teoremas y, 26, 

26n, 27

programa de aprendizaje y, 132 

representación analógica y, 303 

307

geón, 306, 307 

Ginet, C., 240n 

Giuliano, V., 135n 

glial, célula, 276 

Gódel, K., 244 

Goldstine, FL, 122n 

Good, I. J., 32n  

Good all, J., 9 5 ,95n 

GPS, 5154, 51n, 64, 131, 136142, 

136n, 144 ,150 ,312  

gramatical, regla, 104, 105, 189 

Guha, R., 159n162n, 165n, 167n 

170n, 174, 174n, 175, 175n,177n, 178, 178n, 179, 179n, 180184n,  

185,175n 

guiones, 5559 

Gunderson, K., 327n 

Hacker, 4347, 43n, 132, 146,150  

HanksMcDermott , problema de, 

ver   problema de la proyección  

temporalHanoi, torre de, 52,53,132, 139 

hardware

arquitectura von Neumann para, 

291293

degradación elegante, 290, 333 

distribución y, 287289, 293, 333 

ferretería y biología, 98, 187, 220, 

221, 276289, 332338, 368, 369 historia del, 2026, 21n28n, 299 

33,29n33n, 128130 

limitación de los 100 pasos, 281 

no determines tico, 2 23 ,223 n 

procesamiento paralelo y , 282,  

283,293,317322

Page 400: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 400/416

404 Inteligencia artificial. Una introducción filosófica

procesamiento secuencial y, 282, 

283,291,292

realizabilidad múltiple y, 128130, 

204211para con oc im iento de ob je tos ,  

328, 329

simulación de, 361366  

ver también> arquitectura; direc 

cionamiento; electrónica; ele-

m e n t o b i e s t a b l e ; m e m o r i a ;  

puerta lógica 

H a rlo w J , 2 9 0 , 290n Haugeland, J., 144, 145n, 294n, 304n  

heurística, 28n, 138 

Hinton, G., 319, 319n, 321n, 330n, 

333n

hipocampo, 289n 

hipotálamo, 94, 262 

hipótesis fuerte del sistema de sím-

bolos, 273311argumentos a favor y en contra,  

188211, 210n, 215 , 295307,  

305n, 311, 348361, 356n, 366

369

defendida por Turing, 360n  

caracterización, 130, 273 

ciencia cognitiva y, 274, 366, 369,

370cinismo acerca de, 275 

hipótesis del sistema de símbolos 

físicos y , 273n

independencia de la arquitectura, 

291=295,368,370 

independencia del concepto de  

programa almacenado, 369 

indicios y, 275, 293295, 311, 322 naturaleza esquemática de, 293  

295, 331

PDP y , 156158 , 311 , 312314 ,

331,332,344,366370  

proponentes destacados de, 130n, 

273n

realizabilidad múltiple y, 343, 368, 

369

representaciones analógicas como  

alternativa a, 305307  significado de la palabra ‘compu-

tador’ y, 308311

supuesta trivialidad de, 209, 210, 

210n, 310

tesis ChurchTuring y, 344, 348  

361

ver también argumento  de la ha-

bitación china; cerebro; len-

guaje del pensamiento; manipu-

lación de s ímbolos , problema  

del conocimiento; representa-

ción interna

hipótesis del sistema de símbolos,  

97130

argumento de la habitación china  

contra la, 188204 

barrera de la complejidad y, 186, 

187

contraejemplos supuestos a la , 

208, 209, 343,3 44 , 366 

co m o hipó tesis empírica, 17, 64, 

9596, 9798,188, 189,203  

exageración acerca de, 18, 148153 

formulación de, 98, 126128 

hipótes i s fuerte del s i s tema de  

símbolos y, 130,273  

hipótesis del sistema de símbolos 

físicos y, 98n

indicios en favor de la 129, 131 

148,187

modelo de los datos del conoci-

miento, 156158, 157n, 165 

nex o de pertinencia y, 181 objeción biológica a, 204211 

PDP como orientación alterna-

tiva, 98, 15 8,31 1,3 32 , 344 

realizabilidad múltiple y, 128130 

significado de la palabra ‘compu-

tador’ y, 308311

Page 401: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 401/416

índice analítico 405

tesis Church-Turíng y, 348-360,364-366

ver también, aprendizaje; base de

conocimientos; búsqueda; códigosimbólico; conciencia; CYC; entendimiento; hipótesis fuerte delsistema de símbolos; inferencia;inteligencia; libertad de la voluntad; metas a largo plazo de la IA;operaciones fundamentales; pensamiento; percepción; problema

del marco; procesamiento dellenguaje; Prueba de Turing; reali-zabilidad múltiple; reconocimiento; resolución de problemas;sentido común; sistema universalde símbolos

hipótesis del sistema dé símbolos físicos, 98n* 273n, ver   hipótesisfuerte del sistema de símbolos; hi pótesis del sistema de símbolos

historiade los computadores, 20-^26, 21 n-

33 n, 106, 107, 114, 129, 129n,130,279,323

de la filosofía de la IA, 29-33, 30nde la IA, 26-33, 26n-33n, 34-63,

51n, 54n, 131-153 312-314

del PDP, 312-313, 3Í2n-313n,360n

Hitech, 50,131Hobbes, T., 90n, 229nHodges, A., 32n, 54n, 223n, 355nHofstadter, D.,65, 82n, 285n, 326,

326nholograma, 287, 287n* 288

Honderich, T., 245,245nHoneywell, 24,24nHospers, J., 228,228nHsiung Hsu, 50humana

dignidad, 17, 17n, 19, 148-150,215, 216,371

inteligencia artificial humana, 54,54n, 88

naturaleza, 18n, 19, 215, 216, 222,

263,273, 371Hume, D., 163n, 229nHuxley, T., 260* 260nIA, metas a largo plazo, 17, 17n, 29,

39, 69-72, 95, 96, 149-151, 165,166,186,187,202,356

IBM, 21n, 23n, 47, 48, 114, 272, 330IBM-701,28n

identidad, condiciones de, 90, 91,162,168,169imágenes, 296, 296n, ver también 

analógicoimplicación

definición de, 182inferencia e, 26,183,243,244

 paradoja de la, 170, 182-184, 182n,

184, 185n problema de la proyección tem

 poral e, 173nrepresentación de la causalidad e,

170-177,170n, 176ntabla de verdad para la implica

ción material, 171 nver también, condicional; inferen

cia; lógica; validezincomputabilidad, demostración deTuring de, 356-361

inconsistenciacláusulas cornutas e, 185ngestión de bases de datos incosis-

terites, Í65, 181-186intuicionismo e, 185

lógica clásica é, 181-186, 183n paradoja de la intencionalidad e,299

 problema del marco e 174inferencia

adaptabilidad profusa e, 93causal, 170-177,184

Page 402: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 402/416

406 Inteligencia artificial. Una introducción filosófica

cláusulas cornutas e, 176n, 177n,185n

constructiva, 185

guiones e, 57-59inconsistencia e, 181-187, 182n,

185n

longitud de, 184, 185nno monotónica, 164

 paradojas sobre la, 171, 181-187,182n, 184n, 185n

PDP e, 366-370

 pertinencia e, 177-181

 problema del marco e, 172-177

 programas para obtener, 26-28,39-43, 53, 55, 56, 163-165, 170-187,360

simulación e, 340-344

ver también, contrafáctico; implicación; lógica; razonamiento;regla de inferencia; tablas de

verdad; validezinferencia, regla de

cláusula cornuta, 182n, 185n

contraposición, 341, 342CYC y, 170-187, 360

datos inconsistentes y, 181-187,182n, 185n

ejemplos de, 26, 27, 61, 62,184

implicación material y, 171, 172,183,336

modal, 243,244

modelo de los datos del conocimiento, 156-158

no monotonicidad y, 164

sistemas exportados, 60-63, 157,363

infinitocapacidades infinitas, 300-302,

354-356

conjuntos infinitos, 125n, 127,355n, 356n

número de estados internos, 354-356, 355n

recursos infinitos, 32n, 125n, 206-208, 346-348, 354-358, 355n,

356n

información, procesador de, 136,309-311

inhibición, 316, 317, 321, 322, 334,

335, 339inspección, 74-76, 85-87, 138-140,

192n, 350, 356, 357

inteligenciade artefactos, 17, 18, 18n, 19, 26,

27, 40, 48, 51, 81n, 94n, 135,136-142, 148-151,155, 158, 165,

166, 169, 186, 187, 192, 314,322, 362, 363

calculabilidad algorítmica e, 348,349

duplicación y simulación de la, 19humana, 17, 18, 18n, 26, 53-55,

94n, 158, 169,192,193

sobrehumana, 18nver también  búsqueda; conoci

miento; entendimiento; hipóte

sis fuerte del sistema de símbolos; hipótesis del sistema de

símbolos; inferencia; pensamiento; Prueba de Turing; razonamiento

intencional, explicación, 94-96, 94nintencionalidad, paradojas de la,

298-300,299n, 302,303, 307intuicionismo, 185inversión, tarea de, 320-322, 329,

330

IPL-V, 141

isomorfismo, 209,210,21 On

Jackendoff, R., 66nJackson, F., 263, 267-270, 267n,

268n, 270n

Japón, 148,151Jaynes, J., 248n, 249-250, 249n-251nJefferson, G., 30

JOHNNIAC, 25, 26, 26n, 29, 51n

Page 403: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 403/416

índice analítico 407

Johnson, Dr. S., 217,217nJohnson-Laird, P., 25 In, 303

Kant, L, 229,229n, 285

Kasparov, G., 49,50Kilburn, T., 22,22n

Kornhuber, H., 218,218n, 221

Kosslyn, S., 296n, 3G3n

Kripke, S. 259nLackner, J., 68, 68nLamb, J., 240nlambda, cálculo, 345

Laplace, P., 220, 220n, 223, 237, 245Larson, Juez, 24nLashley, K., 66, 66n, 275, 275n, 286-

289,287n, 333,333nLavington, S., 22n, 25n

LeDoux, J., 1,256LeiberJ. 1,349, 349n

Leibniz, G., 265n, 275

Lenat, D., 132, 132n, 135, 135n, 158-

162, 158n-162n, 165-169, 165n-170n, 174n, 176n, 177, 177n, 179,

180,180n, 185, 186, 183n-186n

lenguaje del pensamiento

argumentos en fávor y en contrade su existencia, 295-307

caracterización, 273,274conciencia y, 273, 296

imágenes y, 296,296noperaciones fundamentales y, 274,

294

 paradojas de la intencionalidad y,298-300

PDP y, 157, 158,344, 366-370 posible innatismo del, 296 .

 productividad y, 300-307,355

relación con símbolos binarios,274,293-295, 331

representaciones analógicas como

alternativas a, 306-307

semejanzas con el lenguaje natu

ral, 296-297sistematicidad y, 300-307

ver también, hipótesis fuerte delsistema de símbolos; represen

tación interna

lenguaje, procesamiento delargumento de las diversas incapa

cidades, 215

argumento de la habitación china,

188-204, 338, 344

conocimiento de sentido comúny, 154, 165,166

geometría del cerebro y, 336-338,337n

humanos, en, 65, 66, 261, 3í0n,311n, 369

limitación de los cien pasos y, 281PDP y, 323-328 problema del reconocimiento y,

66,325-329

 programas para, 34-43, 55-59, 72-

78,144-146,152

Prueba de Turing y, 69-72, 80-82,85, 86

ver también, composicionalidad;entendimiento; lenguaj.e del

 pensamiento; productividad; re-cursón; sistematicidad

lesión, 286-288letras, reconocimiento de, 66, 325-

328Levy, A., 178,179, 178n-180nLewis, C. L, 185nLewis, D., 268n, 302nlibertad de la voluntad, 215-246

aleatoriedad y, 222-226, 223n,233,234,241

argumento de las consecuencias y,

241-244artefactos y, 19, 54, 109, 215, 217,

221, 222, 223, 223n, 228, 238,

246,371, 372

compatibilismo y, 226-236, 229n,

237,238,240,241-246

deseos compulsivos y, 229-231

Page 404: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 404/416

408 Inteligencia artificial. Una introducción filosófica

determinismo y, 53, 217-222, 226-229, 236-246

inevitabilidad del futuro y, 240-

246libertarismo y, 229n, 231-236, 246lógica y, 242,244opiniones de Turing sobre, 222-

226,223nramificar y, 109responsabilidad moral y, 225, 226,

235

teoría del caos y, 236-240,245ver también, determinismo

libertarismo, 229, 231-236ver también, compatibilismo

Libet, B., 218n

limitación de los 100 pasos, 281

LISP, 28,108, 141, 345

Llinás, R., 337n

localización de funciones, 286-289

ver también, distribuciónLoebner, H., 89

lógicaaxiomas del marco y, 174cláusula cornuta, 176n, 177n, 185ncuanuficacional, 176n, 182, 183n,

351-353

decidibilidad y, 349n, 351-355,

35ln,359nincomputabilidad y, 355n, 356-

360, 356n

inconsistencia y, 181-187, 182n,185n

intuicionista, 185

modal, 170-172,170n, 243,244

monotónica, 164

no clásica, 163, 182n, 183n, 185no monotónica, 164, 164n, 172-

175

 problema de la parada, 359nrepresentación de la causalidad y,

170-177

de la simulación, 339-344

veritativo funcional, 26, 27, 53,

170-176, 170n, 171n, 182n, 183,

184,279n,313n,351

ver también, contrafáctico; decidi bilidad; implicación; inconsis

tencia; inferencia; Lógico Teórico; máquina de Turing; regiade inferencia; teoría de conjuntos; tesis Church-Turing; validez

lógica clásica, 181-185

alternativas a, 164, 164n, 172-177,

184,184n, 185, 185n

 paradojas de, 170-172, 1.82, 183n

Lógico Teórico, 26-28, 29, 51, 51n,

132

 precedido por el programa de da

mas de Samuel, 27Longuet-Higgins, C., 73n, 287n

Lovelace, A., 31n, 129n

Lycan, W., 259n, 265nMabbottJ. D., 235,235n

manipulación de símbolos, 98-126caracterización, 98-100cerebro, 273-311, 331, 364, 365,

366-370comparada con operaciones sobre

representaciones analógicas,

303-306computador definido como, 124,

125,308-310contrastada con PDP, 311, 329-

332,344

en PDP, 330, 331,366-369

entendimiento y, 127, 189, 190,

201-204

es un concepto de parecido de familia, 332

eslabón de pertinencia, 181

hipótesis fuerte del sistema desímbolos, 130,273-275

hipótesis del sistema de símbolos,126-128

Page 405: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 405/416

índice analítico 409

independencia de la arquitectura,128-130, 204-209, 273, 274,291-294, 296, 343, 363, 364,

367-369lenguaje ensamblador, 108-123máquina von Neumann, 292, 293neurona y, 279operaciones fundamentales, 98-

100, 109, 110,114-116, 123-126,130, 274, 293, 329-331, 366-370

 problema de clasificación, 325-329

simulación de redes PDP mediante la, 340, 341, 346, 361-366tesis Church-Turing y, 344-361ver también,  argumento de la ha

 bitación china; base de conocimientos; cerebro; código sim

 bólico; CYC; hipótesis fuertedel sistema de símbolos; hipótesis del sistema de símbolos;operaciones fundamentales;

 pensamiento ; problema delmarco; realizabilidad múltiple;sistema universal de símbolos

manual, ejecución manual de un programa, 191-193,202,211

manuales, modificaciones de una base de conocimientos, 126, 160,

166máquina natural, significado de, 371,

372Manchester, computador Mark I de,

22, 22n, 23,25n, 29,30,114Manchester, Universidad de, 22,

22n, 23,25n, 30, 33,114,129nMáquina Analítica, 129,129n

máquina de carne, 263, 263n, 266,267marco, axioma del, 174marco, problema del

caracterización, 143conocimiento de sentido común

y, 156, 166,173-176

CYC y, 167, 174-177lógica no monotónica y, 164micro-mundos y, 144,147

modelos analógicos y, 305n problema de la proyección tem poral y, 172-177

ver también  base de conocimientos; conocimiento; pertinencia;

 problema del conocimiento; problema de la proyección tem poral

Mauchly, 23-25,25n, 31Maxwell,]. C., 355n, 360Maxwell, leyes de Maxwell del pen

samiento, 360McCarthy, J., 28, 29, 86n, 143n, 345McClelland, J., 29Gn, 301n, 303n,

323, 323n, 324, 328n, 329, 329n,330n, 333n, 334n, 336n

McCulloch, W„ 278-280McDermott, D., 136, 136n, 164n,

173nMcGinn, C., 3Ó3-305,303n~305nmedicina, aplicaciones a, 60-62, 147,

160,160nver también, Centaur, Mycin

medios, lista de, 137-139medios-fines, análisis, 136-142

memoriaacceso serial y aleatorio, 122ncadena de símbolos y, 330codificación dispersa de la, 285degradación elegante de la, 290,

290n, 333direccionable por el contenido,

283-286,293,333, 362

direccionable numéricamente,112, 113, 283-285, 289, 291,-293distribución y, 286-289, 293, 333,

368ilimitada, 125n, 207n, 346, 347humana, 286-289, 289n, 335, 336modelo holográfico de la, 287, 288

Page 406: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 406/416

410 Inteligencia artificia!. Una introducción filosófica

supervisor interno y, 257

ver también,  base de conocimien

tos; cerebro; conocimiento; má

quina von Neumann; PDP; programa almacenado; registro

mentales, modelos, 305-307, 305n;mentales, ver   lenguaje del pensa

mientomentalidad, 204-206, 209, 215, 342,

343

ver también,  cerebro; pensa

miento

mente, 54, 65, 66, 130, 146, 187, 216,

243,-262, 263, 264, 272, 273, 274,

347, 348, 355n

ver también, cerebrometa, 93-96, 136-141,299

supervisión interna y, 257

meta-hecho, 143, 179-181

Metropolis, N., 129nMettrie, J. de la, 371, 372mezclar, error de, 324, 324n

Michie, D., 29

micro-mundo, 92-94, 144n, 153

ver también, base de conocimien

tos; conocimiento; mundo de

 bloques, problema del conocimiento; sistemas expertos

Mill, J. S., 245, 245nMinsky, M., 17,.17n, 29 30n, 135,

135n, 143n, 144n, 151, 159, 164n,

207, 221, 22ln, 263n, 312, 312n,

313n, 321n, 360

misioneros y caníbales, problema delos, 51-53, 132, 136, 137

modal, operador, 170n, 243, 244

operador modal débil, 244mono, célula especializada en ma

nos, 288,289Moore School, 129nMoravec, H., 151, 151nMozer, M., 289,289n

múltiple, realizabilidad

de un algoritmo en el software,

346ncaracterización de, 128

del pensamiento, 92, 96, 97-98,204-206, 365

del programa en el hardware,  88,

129de los qualia, 274del sistema universal de símbolos,

130, 273, 274, 295, 365, 368, 369

murciélagos, 263-267, 263n, 265n

Mycin, 60,60n,61,132,147

 Nagel, T., 253n, 259n, 263-265, 263-

265n, 266, 267, 267n, 269, 269n

 National Physical Laboratory, 32,

32n, 129n

necesaria, conexión, 163,219necesaria, verdad, 237, 240, 243, 244ver también, lógica modal

 Nemirow, L., 268n

neural, red, ver  PDPneural, simulación, 312; ver  PDP

neurociencia, ver   cerebro; concien

cia; determinismo; memorianeurona; PDP; percepción; qualianeurona, 276-280, 314-316

almacenamiento de información,287-289, 332, 333, 335

axón, 276-280, 276ncomparación con unidades PDP,

312, 332-338,366

conexiones interneuronales, 276-280, 282, 283, 314-316, 332-334,

335-338

dendrita, 276-280,276n

diversidad de tipos, 280, 280n,

333,334especificidad de, 286-289

operaciones básicas de, 276-278,314-316

 propiedades binarias 279, 314-317sensibilidad de, 241teoría del caos y, 239

Page 407: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 407/416

índice analítico 411

tiempo de respuesta, 281vías gustativas, 265,266

neurotransmisor, 278n, 335, 336

 Newell, A., 26, 26n, 28, 29, 51, 51 n,53, 53n, 54n, 98n, 124n, 125n,

136n, 139n, 140n, 141, 150, 150n,152,152n, 273n, 349, 349n

 Nilsson, N., 54n Nissen, H., 66nno computabilidad, ver  decidibili-

dad; incomputabilidad

no semidecidibilidad,ver 

  decidibili-dad

«no Von», máquina, 293 NPL, ver  National Physical Labora

tory

números binarios, lOln, 106, 107,111-113, l l l n , 116-122,191

objeto, reconocimiento de

artefactos y, 133,134,329

cerebros divididos y, 253-256contexto y, 327,328ejemplos de, 66,134, 326, 327inspección y, 87

limitación de los cien pasos, y, 281

 problema de clasificación, 325,326

representaciones analógicas y, 306

ver también, perpepción reconocimiento de caras; reconocimiento de palabras

objeto no existente

estatuto ontológico de, 163, 163n,168,169

oncología, 161-163, 167,169

otras mentes, problema de las, 84,

258,259,264-266,271Papert, S., 144n, 312, 312n, 313n,

321n parada, teorema de la, 359n

 paralelo, procesamientoarquitectura para, 292, 293, 312n,

313n, 317-322, 332,333, 363

caracterización, 282

en el cerebro, 282, 283, 291-293,

332, 333, 349

en el nivel de la realización, 368,369

en PDP, 313, 317, 332, 333, 338

reconocimiento de objetos y, 327-

329

simulación mediante ingenio se-

cuencial, 282,283, 339-341

velocidad de, 282, 283, 363, 366

ver también, PDP paralelo, procesamiento distribuido,

ver  PDP parecido de familia, 332

 paridad, control de, 211 n, 213

Parry, 35-37, 64, 74-77, 76n, 85, 86,

132,192n

 parte-de, principio de la, 199

 parte-todo, falacia, 193-201, 340-342 patrones, comparación de, 75-78

ver también, reconocimiento de pa

labras

Pascal, 108,283n

PDP, 19, 54, 97, 98, 136, 157, 312-

370

algoritmos de aprendizaje en, 321,

321 n, 322, 335anticipado por Turing, 360n

argumento de la habitación chinay, 338-344

 búsqueda pertinente y, 180, 181

calculabilidad algorítmica y, 346,360,360n, 361

comparado con el procesamiento

del cerebro, 54, 312, 332-338,364

degradación elegante, 333

como descripción del nivel de la

realización, 366-369

direccionabilidad por contenidos,333, 362

Page 408: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 408/416

412 Inteligencia artificial. Una introducción filosófica

entradas/salidas y, 313n, 317-322,324, 330, 331,333, 362

entrenamiento y, 320-325, 333,

334, 335,339,360n, 362error de mezclar, 324escala, 32 lnfuerza (‘peso’) de las conexiones

en, 314-316, 320-325, 332, 333,334-335, 339, 362

generalización y, 322, 323-325,329

geometría y, 336-338historia de, 312-313, 312n~313n,369n

inferencia y, 367modelo de , adquisición del preté

rito y ,323-325operaciones básicas de las unida

des, 314-322 paradigma simbólico y, 309, 310,

312-314,330-332, 344-370 problema de la disyunción exclu

yeme, 313n predicciones acerca de, 312-314 productividad y, 300, 301química y, 335, 336reconocimiento y, 325-329redes en computador, 339-341,

361-366regias y, 325, 331representaciones internas en, 320-

322, 323, 330, 333, 366-368rudimentos de, 314-322simulación de redes PDP me

diante computador, 339-341,361-366

tesis Church-Turing y, 346umbral de las unidades, 314-317,

321,330, 331,339, 362unidades, activación continua y,

330,366unidades, activación discreta y,

314-319,366

unidades comparadas con neuronas reales, 312,313,332-338

unidades, conexiones entre, 314-

321, 323, 324, 332-338, 343, 362unidades ocultas, 313n, 318, 321unidades, operación probabilístíca

de, 319ver también, arquitectura; cere

 bro, distribución; memoria procesamiento paralelo; procesa

miento secuencial

Pellionisz, A., 309n, 337nPenrose, R., 360, 360n

 pensamientoadaptabilidad profusa y, 93-96, 97,

126,127,365argumento de la habitación china,

193,203artefactos, 17-19, 29, 30, 499-50,

51-55, 64-66, 69-96, 97, 98, 125-128, 131-153, 188, 204-211,215-217,371,372

 barrera de la complejidad, 186,187

caracterización, 89-96concepciones de Turing sobre, 29-

33, 30n, 31n, 54, 69-72, 79, 81,

84,85,223n, 308, 360nconciencia y, 65-69, 249-251, 257esencia de los seres humanos, 370explicación intencional y, 94-96hipótesis fuerte del sistema de

símbolos y, 130, 273-275, 291-311

hipótesis del sistema de símbolos

y, 97, 98, 126-128, 208, 209, 273libertad de la voluntad y, 217, 226máquina de Turing y, 207, 208,

347,348PDP y, 311, 361 por medio de representaciones

analógicas, 302-307

Page 409: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 409/416

índice analítico 413

 proceso dependiente de la biología, 18, 71,84, 92,204-208

 productividad y, 300-307, 354-356

Prueba de Turing para el 69-89simulación del 82-84,364-366sistematicidad y, 300-307tesis Church-Turing y, 344-361ver también, aprendizaje; argu

mento de la habitación china;cerebro; conciencia; conocimiento; creencia; CYC; deseo;

entendimiento; hipótesis fuertedel sistema de símbolos; hipótesis del sistema de símbolos; inteligencia; leyes de Maxwell del pensamiento ; libertad de lavoluntad; memoria; PDP; percepción; Prueba de Turing; razonamiento; reconocimiento;representación interna; resolución de problemas

 percepciónartefactos y, 18, 80-82, 86-87, 133,

134, 328,329cerebros divididos y, 252-256conciencia y, 65-69, 247-271,

251n, 253ngeometría del cerebro y, 337* 337n

en murciélagos, 263-267 problema de la clasificación y,

325-328qualia y, 258-271representación analógica y, 307ver también, cerebro; órganos de

los sentidos; reconocimiento decaras, reconocimiento de obje

tos; reconocimiento de palabras perceptrón, 312n, 313n procedimiento de convergencia en

el, 313n, 321nver también, PDP

 pertinenciaaxioma de, 179-180

nexo de pertinencia, 181 paradoja de la implicación mate

rial y, 171,179,180

 problema de búsqueda en bases dedatos, 143,147, 155

representaciones distribuidas y,181

tratamiento en CYC, 166, 177-181 pesos (de las conexiones), ver  PDP,

fuerza de las conexiones enPinker, S., 310n, 324n, 325n, 344n,

369nPitts, W., 278-280 planificación

adaptabilidad profusa, 91, 93, 96,126

conciencia y, 249,250,257 programas para, 39-47, 51-53,132,

136-142representaciones internas necesa

rias para 295Poggio, T., 280,280n posibles, mundos, 163, 168, 169,

182n, 236,237ver también, lógica modal

 potencial de aprestamiento, 218,218n

Pour-El, M.B., 355n

 precondiciones, 138 predicados, cálculo de* ver   lógica,

cuantificacional predicción

comparada con la explicación, 94,95

del éxito de la IA, 17, 17n, 18n,148-153, 165-167,312-314

intencional, 94-96libertad de la voluntad y, 217-222,

236-238,240, 245teoría del caos, 238-240, 245ver también, aleatoriedad; deter-

minismo; libertad de la voluntad; predictivismo

Page 410: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 410/416

414 Inteligencia artificial. Una introducción filosófica

 predictivismo, 236-240 pretérito

adquisición por parte de los niños,

324, 325modelo de adquisición, 323-325,

331,333, 337 primitivas, operaciones (del compu

tador), ver   operaciones fundamentales

Prince, A., 31 On, 324n, 325n, 344n,369n

Princeton, máquina clase Princeton,26n problemas, resolución de

en arquitectura analógica, 305axiomas del marco y, 172-177,

173n, 180,183conciencia y, 66,249,250inconsistencia y, 181-187

 pertinencia y, 177-181 programas para, 26-28, 39-63,

131-148ver también, análisis medios-fines;

CYC; planificación; reconocimiento; sistemas expertos

 producción, regla de, 61,157ver también, regla de inferencia

 productividad, 300-302, 355

de las representaciones analógicas,307

 programa almacenadocontroversia acerca del origen,

25ndefinición de sistema universal de

símbolos y, 123-126direccionamiento indirecto y, 25n,

116, 122nhistoria de, 23, 23n, 24, 25, 25n,

32n, 113,114máquina de Turing y, 25n, 31, 32,

32n, 122nmáquina von Neumann y, 108-

114,291,292

modificación durante la ejecución,116,122n

ver también, computador, historia

dé; programación programa, contador del, 113 programación

en BASIC, 34, 35direcciones y, 283n, 284nen lenguaje ensamblador, 108-123,

214máquinas de Turing y, 211-214,

211n, 212nlas primeras máquinas y, 20-24,21n-25n, 29-33,108

 programadores compulsivos, 43-47,43n

ver también, ASCII; codificacióndispersa; comparación de patrones; fuerza bruta; manipulaciónde símbolos; símbolos binarios

Prolog, 108 propagación retroactiva, 32ln

véase también, algoritmos deaprendizaje, PDP

 propósito especial, 21,207, 361 propósito general, 20, 21,31, 125Proudfoot, D., 163n, 220n puerta lógica, 279, 280, ver también,

arquitectura; hardware 

 pupilas, reacción de las, 252Putnam, H., 91n, 271 nPylyshyn, Z., 130, 205, 205n, 206,

273, 274, 274n, 293, 293n, 295n,296n, 299, 299n, 301-303, 301n-303n, 344n, 368n

qualia, 258-271

del dolor, 260,267-271no externos, 261fisicalismo y, 260-271, 262n, 263n,

267nde gatos y ratas, 265,266Jackson y los, 263, 263n, 267-270,

267n, 268n, 270n

Page 411: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 411/416

índice analítico 415

de los murciélagos, 263-267y265n

 Nagel y los, 263-267, 263n-265n,267n, 269,269n

de otras personas, 258, 259, 271química del cerebro, 262, 267, 269,

278,278n, 335,336

Quodlibet (ex falso quidlibet),  181-

187, 182n, 184n, 185ncláusulas cornutas y, 185n

ramificar, instrucción, 109-113, 116-123,124,124n

libertad de la voluntad y, 109ver también, condicional

RAND Corporation, 26n, 51nrazonamiento

adaptabilidad profusa, 93, 96, 99artefactos y, 26-28, 39-43, 53, 55,

56, 60, 61, 163-165, 172-187,185n

conciencia y, 249-251

lenguaje del pensamiento y, 274,

296, 367, 369

PDP y, 366-369,370

representaciones internas necesa

rias para, 295, 309

ver también, inferencia; lógica; resolución de problemas

real, mundo

contraejemplos a la hipótesis delsistema de símbolos y, 208, 209,343,366

dominios simplificados y, 94, 126,144-148,169

existencia del caos en el, 239recursos y, 207, 347, 348, 350, 361representación indirecta de, 126,

126n,364-366simulación de redes PDP en, 343,

365, 366

tesis Church-Turing y, 347, 348

ver también, mundos posibles; simulación

realización, nivel de la, 368,369

ver también, hardware;  realizabi-lidad múltiple

reconocimiento, ver   percepción; re

conocimiento de caras; reconocimiento de letras; reconocimiento

de palabras; reconocimiento deobjetos

reconocimiento de caras, 261, 326,. 327,369reconocimiento de palabras, 66, 68,

69, 325-328

recursioncaracterización, 104, 105como contrapartida sintáctica de

la composicionalidad, 105definición de computador y, 309,

310, 322inferencia y, 367

lenguaje del pensamiento y, 297,367

 potencia expresiva del código sim

 bólico y, 102, 105,108,126

reglas recursivas, 104, 105, 35In

representaciones analógicas y, 307

ver también, composicionalidad;

función aproximable recursivamente

recursivamente aproximable, fun

ción, 356nregistro , 99, 100, 109-126, ll ln ,

210n, 283-287,292,297ver también, dirección; máquina

von Neumann; memoria

reglade aprendizaje en PDP, 313n, 320-

322, 334,335

 para formar pretéritos, 323-325gramatical, 104,105

 problema de la decisión y, 349,

350

de producción, 61,157

 propagación retroactiva, 32 lnreconocimiento, 326, 327

Page 412: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 412/416

416 Inteligencia artificial. Una introducción filosófica

recursiva, 104, 105, 35 ln

reducción de la pericia a, 156-158,

325

ver también, regla de inferenciarepresentación interna

analógica, 303-307, 305n, 337n

adaptabilidad profusa y, 93, 126,127

 binaria, 101-104,105-107

de la causalidad, 171-177

cerebro y, 130, 156-158, 274, 293,

295-311, 298n, 312n, 332, 344,366-370

composicionalidad y, 101-104,105, 107,108

definición de "procesador de in

formación' y, 309-311

distribuida, 181, 320-322, 333

geónica, 306, 307

indirecta, 126, 364-366lenguaje del pensamiento y, 295-

307,298n

modelo de los datos del conoci

miento, 100-102,165

necesaria para planificar, razonar,

etc., 295, 309

ontologíay, 162,167-169

en PDP, 320-322, 323, 330, 333,366,368

 pertinencia y, 180, 181

recursion y, 104,105, 108en Shrdlu, 145

del tiempo, 140n, 147

ver también, base de conocimien

tos; cerebro; código simbólico

conocimiento; hipótesis fuertedel sistema de símbolos; hipóte

sis del sistema de símbolos; ma

nipulación de símbolos; símbo

los binarios

representación de un problema, 140,

141

responsabilidad moral, 225, 226,235,236

ver también, compatibilismo; de-

terminismo; libertad de la voluntad

Resolutor General de Problemas,ver  GPS

Richards, L, 355nRiesbeck, C., 55Robinson, A., 122nrobot

conciencia y, 91n, 247, 250, 251,258, 259, 271

criterio del diseño y, 87, 88ejemplos de, 39-47, 133-135

entendimiento y, 201-204

exageraciones sobre los robots,148,149

explicación intencional y, 94-96

heurística y, 138

hipótesis del sistema de símbolos

. ^ 127libre voluntad y, 216, 217, 221,

223,228,237,238,246

 pensamiento y, 94, 96, 204, 364,365

ver también,  androide; Shakey,Shrdlu; Turbo Sam

Rose, G., 356nRosenblatt, F., 312-313, 312n, 313nRoszak, T., 152n

Rumelhart, D., 282n, 290n, 301 n,313n, 323, 323n, 324, 328n, 329,329n, 330n, 333n, 334n, 336n

Russell, B., 27,268n

saber-cómo, 156-158,333

Saint-Pol-Roux, 66Sakitt, B., 241,241n

Sam, 54-59, 132, 190-192, 192n, 197,

198,201,202,281,312Samuel, A., 27, 47-49, 54, 131, 149

y el primer programa heurísticoacabado, 28n

Page 413: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 413/416

índice analítico 417

Schaefer, H., 219nSchank, R., 55, 55n, 56, 57n-59n,

151, 151n, 197, 197n, 198n, 281

Schiffer, S., 299nSearle, J., 19, 188-211, 265n, 192n,

195n, 196n, 198n,200n, 202n,

205n, 208n, 210n, 275, 275n, 338-

344, 338n, 341n, 343n, 365, 365n,

366secuencial, procesamiento

caracterización, 282, 283

máquina von Neumann y, 291 -293, 291n, 363

reconocimiento de objetos, 281,328

Searle y, 338-340significado de en el paradigma

simbólico, 282,291-293simulación de ingenio paralelo

 por medio de, 283, 339-341,346-348,361-366simulación de por medio de inge

nio paralelo, 330tareas esencialmente secuenciales,

282, 282n

ver también,  máquina Von Neu

mannsemántica, 171, 177, 189, 200, 209,

274lenguaje del pensamiento y, 295-

298

ver también, argumento de la ha bitación china; composicionali-dad; entendimiento; recursion;

significadosemidecidibilidad, ver   decidibilidad

sensación, ver  qualiasentido común, 151, 153-156, 158-

187,242sentidos, órganos de los

argumento de la habitación china,

201-204conciencia y, 247,249,251-258

mecánica cuántica y, 241Prueba de Turing y, 80-82, 87, 88

qualia y, 258-271

robótica y, 133-135, 325-329serial, acceso, 122nver también,  acceso aleatorio; má

quina de Turing

serial, procesamiento, ver   procesa

miento secuencialShaffer, J., 224,224n

Shakey, 133,134, 141, 146, 148

Shannon, C,, 86nShaw, C., 26-28, 26n, 51Sherrington, C, 275

Shortliffe, E., 60,61nShrdlu, 39-43, 44, 63, 64, 76, 94, 132,

135, 144-148, 153, 171, 187, 312

Shurkin, J., 24n, 25n, 149nsignificado

argumento de la habitación china,190-193,338

de consciente, 248, 248n, 249estatuto ontológico del, 162, 163erstructura y, 296-300, 367

manipulación de símbolos y, 128,

170,177,190-193nominalismo y, 168,169

 peligros de ampliarlo; 308-310

representaciones internas y, 296-298, 307

ver también, composicionalidad;entendimiento; procesamientodel lenguaje; representación interna; semántica

simbólico, código

en arquitecturas paralelas, 329,

363-369cerebro y, 130, 156-158, 274, 293-

307,298n, 331

comparado con representacionesanalógicas, 303-307

es un concepto de parecido de familia, 332

Page 414: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 414/416

418 Inteligencia artificial Una introducción filosófica

definición del término ‘computa

dor’ y, 123-126, 308-311, 308

inferencia y, 367, 369

ver también, cerebro; hipótesisfuerte del sistema de símbolos;hipótesis del sistema símbolos;representación interna; símbo

los binariossimbólico, paradigma, ver   base de

conocimientos; cerebro; códigosimbólico conocimiento; CYC,

hipótesis fuerte del sistema desímbolos; hipótesis del sistema de

símbolos; lenguaje del pensa

miento; manipulación de símbo

los; modelos de datos de

Simon, H., 26, 28, 29, 30n, 51, 53,

53n, 54n, 98n, 130n, 141n, 146,146n, 150, 152, 150n-152n, 216,

216n, 273nSimons, G., 28n, 60n, 222, 222n,

224,224n

simulación

del cerebro, 282, 283, 342-344,344-348,356,361-365

cognitíva, 54en demostraciones de equivalencia

de sistemas de símbolos, 207distinción real/ideal acerca de,

348, 356, 362, 365, 366duplicación y, 19, 82, 83, 204-206

grados de, 83, 342, 343

lógica de, 341-343

de la máquina de Turing mediante

 programa en lenguaje ensam

 blador, 213,214

de la máquina Von Neumann mediante red PDP, 330

de memoria direccionable por el

contenido mediante memoriadireccionable numéricamente,285

neuronal, 312

de objetos del mundo real me

diante computador, 40-45, 286,

361

de procesador paralelo mediante procesador secuencial, 282, 283

Prueba de Turing y, 82, 83de red PDP mediante personas,

338-344

de red PDP mediante procesadorde símbolos, 339-341, 346-348,361-366

de sistemas caóticos por computador, 239

representación indirecta y, 364,365

Searle y, 19,203-206,338-344

tesis Church-Turing y, 346, 347,348

ver tambiénymundo real

sinapsis, 276n, 314,335, 336sintaxis, 170n, 189n, 190, 200, 209;

ver también, composicionalidad;

manipulación de símbolos; recursion; regla gramatical

sistemas, réplica de, 195-201sistematicidad, 301, 302

representaciones analógicas, 307ver también, productividad

Skinner, B. F., 247navaja de Skinner, 247

Sloman, A., 282,283n

Slote, M., 244

Smith, B. C., 167,167n, 180n

Smolensky, P., 314, 314n, 367, 367n

sobrerregularición, 325

Sperry-UNIVAC, 24,24n

SSEC, 21n, 23n, 114Stairmand, M., 86n

Sterelny, K., 192n

Stich, S., 31 On

Stoddart, H., 263nsubjetivo, 217, 218, 222, 259, 259n,

263-267, ver también, qualia

Page 415: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 415/416

índice analítico 419

sustancia, estatuto ontológico de,167-170

Superparry, 85-89, 86n, 192n

supervisor interno, 251-257, 25ln,258

Sussman, G., 44, 44n, 45, 45n, 47,

150Sutherland, S., 248, 248n, 364, 365n

temporal, problema de la proyección, 172-176,172n, 181,183

tensor, 199, 200, 337n

Teseo, barco de, 90Thorp, Jt, 224, 224n, 227, 227n, 233,

233n, 234,234ntiempo

 búsqueda pertinente y, 179, 180

como recurso, 124n, 283, 321n,

346, 347, 350, 355, 361, 363, 366decidibilidad y, 350, 353, 355,

357-359limitación de los cien pasos y,

281-283 paradoja de la implicación mate

rial y, 172 problema del marco, 172-177

relatividad y, 127,128representación del 140n, 147, 163

ver también, determinismo; pre

diccióntiempo compartido, 28tipo/marca, distinción, 128tornasol, prueba de, 79, 88Touretzky, D., 368,368nTrusted, J., 234,234n

Turbo Sam

conciencia de, 247, 251, 257, 258-

259como agente libre, 216, 217, 222,

223,228,237,238,246con entendimiento y pensa

miento, 201-204,365Turing, A.

ACE y, 32 ,32n, 33n, 108,360n

anticipa el PDP, 360nconocimiento del trabajo de Bab

 bage, 129n

cree que el cerebro es un computador, 54, 129, 21 On, 348, 355n,

360,360ndemuestra que todas las funciones

efectivamente calculables sonTuring-computables, 206, 207n

demuestra el teorema de la parada,359n

descifrador de códigos, 31, 32nfundador de la filosofía de la IA,29-33,30n, 54

Manchester Mark I y, 22n, 32,108

obra de teatro sobre, 284origen del concepto de programa

almacenado y, 25n, 31, 31n,

32n, 359n

 puntos de vista sobre el aprendi

zaje, 81,360 puntos de vista sobre la concien

cia, 259n puntos de vista sobre el elemento

aleatorio en las computaciones,

22n, 223,223n

 puntos de vista sobre la libertad

de la voluntad, 222-226, 223n

 puntos de vista sobre eliproblemade las otras mentes,, 84, 259,259n

 puntos de vista sobre la relación

de la máquina universal de Turing con ACE, 32n

 puntos de vista sobre los artefactos pensantes, 29, 30, 30n, 69-

72, 79, 84, 215, 223n, 308, 360nvon Neumann reconoce su tra

 bajo fundacional, 31nver también,  Bomba de Turing,

Máquina de Turing, Prueba deTuring, Tesis Church-Turing

Turing, Bomba de, 32n

Page 416: Jack Copeland - Inteligencia Artificial (1996)

7/25/2019 Jack Copeland - Inteligencia Artificial (1996)

http://slidepdf.com/reader/full/jack-copeland-inteligencia-artificial-1996 416/416

420 Inteligencia artificial. Una introducción filosóf:

Turing, Máquina decaracterización, 206-208, 211-214cerebro y, 207, 279, 349, 360, 360n

equivalencia de la máquina universal de Turing y el sistemauniversal de símbolos, 125n,207, 207n,211n,212n

entrada/salida de, 207, 21 ln, 212n,212,213,358

ejemplos de, 211-214, 21 ln, 212nhipótesis del sistema de símbolos,

204, 207historia de, 25n, 31-32, 31n-32n,

206máquina universal de Turing, 31n,

32n 122n, 207, 207n, 213, 354multicinta, 356n

 predictibilidad de, 236 problema de la parada, 359n

recursos reales y, 207, 350, 359nrelación con ACE, 32nresultado de Elgot-Robinson y,

122ntabla de máquina de, 207n, 212,

213,236,357, 359ntesis de Church-Turing, 345, 347,

348

uso en la demostración de la existencia de números incomputa- bles, 356-361

T i S 32

capacidad para simular otros sistmas, 346-348

cerebro como, 1299-130, 211, 27

311definición de, 125hipótesis del sistema de símboL

y, 126, 127,273máquina universal de Turing i

125n, 207,207n, 21 ln, 212ntesis Church-Turing* establéele

en términos de, 346

ver también, hipótesis fuerte dsistema de símbolos; hipótesdel sistema de símbolos; man

 pulación de símbolos; máquiíVon Neumann

validez (de la inferencia), 176 i177n, J82-185, 185n, 194, 19!197, 198, 237, 243, 244, 341, 34

Van Inwagen, P., 224n, 227, 227i240n, 243n, 244

vector, transformación de, 330verdad, sistema que preserva la, 16-

164n, 183,185ver también, lógica no monote

nicaverdad, tablas de, 171, 171n, 27'

279n, 313nverdad, valor de, 163,185virtual, máquina, 221i ió i 6 2 1 2 2