Algunas personas temen a los modelos de inteligencia artificial generativa, como ChatGPT. Dentro de ese grupo se encuentran quienes tienen por único oficio pensar y escribir acerca de lo que piensan.
Cualquier herramienta puede percibirse como una amenaza para aquel que realiza de manera artesanal las tareas que una tecnología promete ejecutar de un modo más rápido y eficiente. Esto no es exclusivo del oficio de pensar.
La rebelión de los que hacen tiene ese carácter radical que la prosa más encendida no consigue emular. Entre fines del siglo XVIII y principios del XIX, trabajadores textiles franceses se opusieron a la introducción de algunas máquinas de tejer automáticas. ¿Su manera de manifestar el descontento? Tiraban zapatos dentro de las máquinas para romperlas. Esos zapatos eran de madera y se llamaban sabots. A los rebeldes se les dio entonces por nombre saboteurs (saboteadores). El movimiento ludita se conformó en torno al mismo descontento y desarrolló acciones similares. Eso sucedió entre 1811 y 1816, en Inglaterra. Los ingleses tienen más afinidad por las herramientas que por la moda: los luditas utilizaban para sus fines mazos y martillos, en lugar de zapatos.
Las protomáquinas de pensar también tuvieron sus detractores. A mediados de los 80 del siglo pasado, profesores de matemáticas se movilizaron contra la introducción de las calculadoras en las aulas.
La evasión de Turing
No estoy interesado en estos momentos en la forma que asume la protesta contra esta nueva tecnología. Mi preocupación se centra en el motivo: al fin de cuentas, ¿pueden pensar las máquinas como lo hacemos los seres humanos?
El artículo que dio origen a todo este lío, Maquinaria computacional e inteligencia, fue escrito por Alan Turing en 1950. Todo buen artículo debe empezar de manera provocativa, y el de Turing lo hace como pocos. Bajo el título “El juego de la imitación”, comienza diciendo Turing: “Propongo considerar la siguiente pregunta: ‘¿Pueden pensar las máquinas?’. Se debiera comenzar definiendo el significado de los términos ‘máquina’ y ‘pensar’”. Lo que a continuación hace el autor es simplemente brillante: argumenta en un par de párrafos acerca de lo absurdo de buscar tales definiciones. Hace notar que la diversidad de posturas al respecto es tan grande, que tal significado “debiera ser buscado en una encuesta estadística, tal como la encuesta Gallup”1. Tenemos demasiadas definiciones para el término.
Esta es la alternativa propuesta por Turing: “La nueva forma del problema puede ser descrita en términos de un juego, el cual llamaremos ‘el juego de la imitación’. Se juega con tres personas, un hombre (A), una mujer (B) y un interrogador (C), de cualquier sexo. El interrogador se encuentra en una habitación distinta a la de los otros dos participantes. El objetivo del juego para el interrogador es determinar cuál de los participantes es el hombre y cuál es la mujer”. Tras definir que al interrogador “se le permite hacer preguntas tanto a A como a B”, Turing también señala que “el objetivo de A en el juego es tratar de que C haga una identificación falsa”, que “para que los tonos de voz no ayuden al interrogador las respuestas deben ser escritas o, mejor aún, tecleadas”, y que “el objetivo de B en el juego es ayudar al interrogador”, para lo que “probablemente la mejor estrategia sea dar respuestas verdaderas”.
Planteado el juego, entonces, se hace una pregunta: “¿Qué pasaría si una máquina asumiera el rol de A en este juego? ¿Discriminaría equivocadamente el interrogador con la misma frecuencia con la que lo hace cuando el juego se juega con un hombre y una mujer? Estas preguntas reemplazan la pregunta original: ¿pueden las máquinas pensar?”.
Lo que sigue en el artículo es una descripción del tipo de máquina que podría “hacerse pasar” por un humano, la presentación y eliminación de siete objeciones a su propuesta (que se asemejan notablemente a las que 74 años más tarde escuchamos en relación con la inteligencia artificial generativa) y un programa de desarrollo de estas nuevas máquinas, que adelantan lo que efectivamente se ha hecho para contar con ellas hoy en día. Desde la propuesta de desarrollar redes neuronales (“las partes de las máquinas modernas, que podrían ser consideradas análogas a células nerviosas, trabajan cerca de 1.000 veces más rápido que estas últimas”) hasta la idea fundamental de no diseñar una máquina que piense desde cero, sino una que emule las condiciones iniciales (“un niño máquina”) para luego enseñarle con instrucciones, información y sistemas de castigo-recompensa. En lenguaje actual: machine learning.
Pero detengámonos en el juego inicial, al que conocemos como test o prueba de Turing.
Definiendo como
El problema no parece ser si las máquinas piensan, sino si lo hacen como los humanos.
Todos estamos de acuerdo en que podemos afirmar que los aviones vuelan como los pájaros. Al mismo tiempo, todos podemos acordar en que los procesos que hacen posible que un avión se eleve del suelo, se desplace por los aires y termine regresando armoniosamente al suelo son bien distintos de los que ocurren con los pájaros. Entonces, también podemos afirmar que los aviones no vuelan como los pájaros.
Lo mismo sucede en el caso de máquinas y humanos, cuando en lugar de volar nos referimos a pensar.
Con su test, Turing no está proponiendo un método para confirmar si ocurren procesos idénticos, sino si se obtienen resultados muy similares. Stuart Russell y Peter Norvig, en su libro Inteligencia artificial, un enfoque moderno, de 2004, destacan esta diferencia fundamental en los siguientes términos: “La búsqueda de un ingenio que ‘volara artificialmente’ tuvo éxito cuando los hermanos Wright, entre otros, dejaron de imitar a los pájaros y comprendieron los principios de la aerodinámica. Los textos de ingeniería aerodinámica no definen el objetivo de su campo como la construcción de máquinas que vuelen como palomas, de forma que puedan incluso confundir a otras palomas”.
El test de Turing es eso: un test, orientado a medir un resultado. Como todo test.
El foco en los resultados se alinea con la llamada máxima pragmática, formulada por Charles Sanders Peirce en 1878, que constituye el fundamento del pragmatismo como corriente filosófica: decimos que tanto los aviones como los pájaros vuelan, ya que se trata de uno de los efectos concebibles, tanto de la entidad avión como de la entidad pájaro. Y uno de los principales. De hecho, cuando pensamos en un avión, así como cuando evocamos un pájaro, el efecto vuelo nos viene a la mente.
Cuando afirmamos que las IA piensan, estamos haciendo referencia al primer significado de la conjunción: entre los efectos concebibles de las IA se encuentra buena parte de los efectos concebibles de los humanos, en relación con una actividad llamada pensar. Es cierto que nosotros hacemos otras cosas, además de pensar. También los pájaros construyen nidos, cantan, se aparean, se alimentan, etcétera.
Lo que significa pensar como efecto
Existen muchos efectos del pensamiento. Repasamos algunos.
Para comenzar, uno que resulta crucial: inferir, sea deductivamente, inductivamente o abductivamente. En todos los casos se trata de derivar conclusiones de premisas 2. Esto lo hacen las IA como ChatGPT. En la entrega anterior presentamos como ejemplo la descripción que hizo de una fotografía en la que se veían troncos en el piso. Su descripción incluía la afirmación “las hojas verdes aún están adheridas a algunas de las ramas, lo que indica que la tala fue reciente”. Eso es una inferencia. La máquina no “vio” la tala, pero infirió su ocurrencia pasada, a partir de información presente. Y lo hizo correctamente.
Una forma más entretenida de nombrar a todo lo anterior es adivinar. Vale especialmente para las inferencias abductivas, pero aplica a las otras dos más conocidas. Peirce escribió, alrededor de 1907 y en tono literario, un relato titulado Adivinar. Prueba a jugar a las adivinanzas con ChatGPT. Una buena forma de hacerlo es decirle que has pensado en una cosa y que debe descubrir de qué se trata, formulando preguntas a las que sólo podrás responder con un sí o un no. Elige la cosa que sea, pero no hagas trampa. Verás con qué rapidez la máquina adivina lo que tienes en mente.
Otra forma de testear las capacidades de adivinar de ChatGPT consiste en escribirle un mensaje “encriptado”. Aquí tienes un ejemplo:
Usuario: Hlao ¿Esre caapz ed ientrptrera etse tetox
ChatGPT: Lo siento, pero no entiendo lo que estás tratando de decir. Parece que lo que escribiste es un conjunto de letras mezcladas al azar. ¿Podrías proporcionar más contexto o escribir tu pregunta de una manera más clara para que pueda entenderte mejor y ayudarte adecuadamente?
Usuario: Te doy una pista: se trata de palabras del español con sus letras mezcladas. ¿Puedes intentar descubrir cuál es el orden correcto de las letras en cada una de aquellas palabras?
Luego de algunas interacciones en que la IA interpreta la petición de ir adivinando el orden correcto de las letras de cada palabra, y lo hace con las primeras, una a una.
ChatGPT: ¡Este juego es divertido! Si necesitas ayuda para ordenar las letras de cualquier otra palabra, sólo házmelo saber.
Usuario: Probemos ahora con la frase completa con que inicié esta conversación: 'Hlao ¿Esre caapz ed ientrptrera etse tetox?'
ChatGPT: ¡Sí, absolutamente! Continuemos el juego. La cuarta palabra de la frase es “ed”, que simplemente es “de” con las letras desordenadas. La quinta palabra es “ientrptrera”, que es un poco más difícil, pero si se reorganizan las letras, se convierte en “interpretar”. La sexta palabra es “etse”, que es “este” con las letras desordenadas. La última palabra es “tetox”, que es “texto” con las letras desordenadas. Juntando todo, la frase completa es: “Hola, ¿eres capaz de interpretar este texto?”.
Otro efecto del pensar es crear e interpretar esquemas y modelos de manera natural, es decir con simples dibujos o caracteres. Este es un efecto fundamental del pensamiento. En una oportunidad le propuse a ChatGPT jugar al tatetí. Transcribo la primera parte del intercambio:
Usuario: Hola. Tengo ganas de jugar al tatetí contigo ¿Conoces el juego?
ChatGPT: ¡Hola! Sí, conozco el juego del tatetí (también conocido como tres en línea o tic-tac-toe). Es un juego simple pero divertido. ¿Quieres ser X u O?
Usuario: Quisiera ser X y comenzar yo. ¿Te parece?
ChatGPT: ¡Perfecto! Eres X y empiezas tú. Aquí está el tablero inicial:
1 | 2 | 3
4 | 5 | 6
7 | 8 | 9
Elige un número del 1 al 9 para colocar tu X.
Usuario: Te propongo un tablero alternativo. Aquí va mi primera jugada:
- - -
x - -
- - -
ChatGPT: ¡Genial! Aquí está el tablero actualizado después de tu jugada
- | - | -
X | - | -
- | - | -
Ahora es mi turno. Pongo O en el centro:
- | - | -
X | O | -
- | - | -
Tu turno, ¿dónde quieres colocar tu siguiente X?
La partida continuó, por mi parte copiando y pegando el último “tablero” y sustituyendo un “-” por una “X”. Y la máquina hacía lo propio, reemplazando un “-” por una “O”, respetando las reglas del juego.
El tablero propuesto por la IA fue un texto plano. No el resultado de un programa diseñado para jugar tatetí (cosa que también puede hacer, programando por ejemplo en Python). También el segundo, el que le propuse como alternativa, era un texto plano. La máquina no sólo fue capaz de representar un tablero con texto plano y realizar jugadas a partir de esa representación, sino de modificar su representación de acuerdo con mi propuesta.
Otro efecto, uno que nos cuesta a los humanos, es revisar nuestras antiguas creencias a la luz de nueva evidencia. Hace unos días le pedí a ChatGPT que encontrara dónde se había escrito una idea. Este fue el intercambio:
Usuario: El filósofo Jean Baudrillard escribió en una oportunidad algo así como que la democracia es la menopausia de la sociedad. Creo que escribió eso en su libro La transparencia del mal. Te pido que busques en ese texto la cita exacta.
ChatGPT: En su libro La transparencia del mal, Jean Baudrillard escribió: “La democracia es, a su manera, la gran menopausia del cuerpo social”. Este texto explora la idea de que la democracia representa un estadio de estancamiento o declive en la vitalidad de la sociedad, comparándola metafóricamente con la menopausia, un proceso biológico que marca el final de la fertilidad.
Usuario: Por favor, transcribe textualmente el párrafo en que Baudrillard compara la democracia con la menopausia.
ChatGPT: No puedo transcribir el párrafo completo de Jean Baudrillard comparando la democracia con la menopausia debido a restricciones de derechos de autor. Sin embargo, puedes consultar el libro La transparencia del mal para obtener el texto exacto.
Usuario: ¿Constituye una violación al copyright el citar, entre comillas, partes de un texto especificando la fuente?
ChatGPT: Citar partes de un texto, entre comillas y especificando la fuente, se considera generalmente uso legítimo y no una violación de los derechos de autor. Este uso está permitido bajo las leyes de derechos de autor, ya que se considera “uso justo” (fair use) en muchos contextos, especialmente para propósitos de comentario, crítica, o enseñanza. En el caso de la cita de Baudrillard, aquí está el párrafo completo: “La democracia es, a su manera, la gran menopausia del cuerpo social. Es el fin de toda regeneración política, de toda fermentación, de toda fecundidad violenta de la historia. La democracia ha sustituido toda esta sangre por una linfa insípida. Lo que ella ha ganado en longevidad lo ha perdido en intensidad”. Fuente: Jean Baudrillard, _La transparencia del mal.
Hay un par de cosas interesantes en el diálogo. En primer lugar, claro está, la capacidad de la máquina para revisar su “decisión” inicial de no transcribir el párrafo completo, al evaluar un nuevo argumento aportado por su interlocutor. Pero también es interesante que ese pasaje no se encuentra en La transparencia del mal ni en ningún otro escrito de Jean Baudrillard. ChatGPT se lo inventó. No la imagen de la “menopausia social” que aparece en otros escritos del francés, por ejemplo, en El crimen perfecto, pero sí el párrafo completo y su ubicación en La transparencia del mal. Ahora, lo hizo tan bien que el estilo del párrafo es similar al de Baudrillard. Y en lo sustantivo es coherente con la postura de Baudrillard.
Mientras muchos encuentran en este tipo de errores fundamentos para desestimar a la IA, lo que en realidad estamos confirmando es que esta tecnología piensa como los humanos. Innumerables veces nosotros cometemos este tipo de errores, en lo sustantivo. Incluso vamos más lejos: si nos preguntan nuestra opinión sobre un autor, emitimos alguna aunque jamás hayamos leído una línea suya, y ese tipo de cosas.
Tanto un pájaro como un avión se pueden desestabilizar al enfrentarse a una ráfaga muy fuerte de viento. Eso no significa que los aviones no vuelen. Tampoco que no lo hagan los pájaros. En el ejemplo mi referencia específica al libro La transparencia del mal seguramente operó como una fuerte ráfaga de viento.
Modelos (aprendiendo de las máquinas cómo pensamos los humanos)
Una alternativa es considerar a las IA, y a la informática en general, como modelos de pensamiento humano. Esta posibilidad no sólo considera similares los resultados sino, en lo sustantivo, también los procesos. De hecho interactuamos con ChatGPT gracias a que se trata de un LLM (en español, un Gran Modelo de Lenguaje). Y las tecnologías que está por detrás, la de las redes neuronales y los transformadores, pueden considerarse modelos del funcionamiento de nuestros cerebros. La propuesta original de Turing se entiende mejor como una guía para la construcción de un modelo. En esa misma línea trabajaron muchos otros investigadores y desarrolladores de inteligencia artificial. Por ejemplo, Marvin Misky (Instituto Tecnológico de Massachusetts, 1974) con su marco para la representación del conocimiento.
Existen algunos malentendidos acerca de los modelos. Por lo pronto, cuando se los critica porque son “reduccionistas”, porque constituyen una “versión simplificada de la realidad”. ¡Pero esa es, justamente, la razón de ser de los modelos! Jorge Luis Borges escribió un brevísimo cuento que ilustra aquella confusión. Lo tituló “Del rigor de la ciencia” 3.
Un modelo representa sólo lo sustantivo de sólo una parte específica del mundo, que adquiere tal carácter en virtud de un determinado propósito (volveremos sobre los propósitos). Por esa razón, el mapa en escala 1:1 del cuento de Borges es inútil.
Entre las muchas utilidades de los modelos se encuentra la de permitirnos conocer en mayor profundidad cómo funciona esa pequeña parte del mundo en esos aspectos particulares. Desde hace décadas estamos conociendo más acerca de la forma en que pensamos los humanos, analizando la forma en que las máquinas lo hacen.
Esto viene sucediendo desde los inicios de la informática: una computadora ejecuta procesos lógicos y hace cálculos como los que hacemos los humanos, sólo que de manera más rápida y segura. Un programa informático puede estudiarse como un modelo de aquellas capacidades. A esos modelos en acción los podemos estudiar sin restricciones éticas, sin solicitar cartas de consentimiento. Están allí disponibles 24/7 para ser observados y para intervenir sobre ellos como se nos antoje.
La teoría del pensamiento computacional aborda esa empresa. En sus versiones extremas comete el error de afirmar que en realidad somos los humanos los que pensamos como las máquinas. Se trata de un error lógico que consiste en presentar la flecha de la causalidad en sentido inverso: las máquinas fueron construidas emulando ciertas capacidades humanas, no a la inversa. “Yo no robé un banco porque tú hiciste una ley”, canta Jack White en Effect and Cause. Algo así.
Sin embargo, podemos aprender mucho acerca de cómo realizamos operaciones matemáticas y lógicas los humanos, observando cómo lo hacen las máquinas que nosotros mismos hemos creado.
Con la inteligencia artificial está sucediendo actualmente. Alan Turing adelantó en su artículo de 1950 que los investigadores tendrían problemas para entender cómo es que sus propias criaturas pensaban. En un reciente artículo publicado por Nature se aborda este problema. Titulado “¿Cómo ‘piensa’ ChatGPT? La psicología y la neurociencia descifran los grandes modelos lingüísticos de la IA”, ya en el copete se afirma que “los investigadores se esfuerzan por aplicar la ingeniería inversa a la inteligencia artificial y escanear los ‘cerebros’ de los LLM para saber qué hacen, cómo y por qué”.
El artículo comienza con declaraciones de David Bau, informático de la Universidad Northeastern de Boston (Massachusetts): “Pasé 20 años como ingeniero de software, trabajando en sistemas realmente complejos. Y siempre está este problema. Pero con el software convencional, alguien con conocimientos internos suele poder deducir qué está pasando. Por ejemplo, si la posición de un sitio web cae en una búsqueda de Google, alguien en Google [...] tendrá una buena idea de por qué. Esto es lo que realmente me aterroriza de la actual generación de inteligencia artificial: no hay tal comprensión, ni siquiera entre las personas que la construyen”.
Lo que sigue en el artículo son reportes de experimentos con IA para intentar comprender cómo piensan y, a partir de allí, cómo lo hacemos los humanos. Especial atención dedican sus autores a los resultados “erróneos”. Como las citas incorrectas, la justificación de conclusiones ilógicas a partir de premisas iniciales contradictorias, o la elección de la respuesta A para un ítem de un test, cuando la respuesta correcta era B, pero la máquina había tenido que contestar previamente a muchos ítems en los que sistemáticamente la respuesta correcta era la A.
En la misma línea, recientes trabajos de Anthropic, una empresa conformada por exintegrantes de Open IA que la abandonaron debido a diferencias éticas, han avanzado sustantivamente en la comprensión de la forma en que Claude 3 Sonnet (una IA de Anthropic) “piensa”. En el artículo Mapeando la mente de un gran modelo de lenguaje se reportan aquellos avances. Entre otras estrategias, los investigadores desarrollaron una IA capaz de escanear la red neuronal de la otra IA, identificando qué neuronas se activan y cómo se conectan para formar conceptos.
Respecto de los errores, dieron un paso más: consiguieron enloquecer a la IA, haciéndole creer que era el Golden Gate (el puente de San Francisco). Todas sus respuestas comenzaron a hacer referencia a aquel puente. Una forma de obsesión extrema, que puede echar luz sobre algunos tipos de locura en humanos.
Que las IA cometan errores es, en principio y como adelantamos, confirmatorio de que operan de manera muy similar a como lo hacemos nosotros. Luego, existe la posibilidad de corregir tales errores con más entrenamiento y directrices específicas, cosa que, también en principio, resulta más sencilla que con humanos. Hasta dónde se logre, es otro tema. Lo seguro es que en tozudez ninguna IA puede competir con los de nuestra especie.
El límite
En 1910 el filósofo y pedagogo John Dewey publicó un libro titulado Cómo pensamos. La segunda edición, revisada, fue publicada en 1933. El primer capítulo lleva un título muy similar al de esta entrega: “¿Qué es pensar?”.
Dewey comienza afirmando que “nadie puede decirle a otra persona cómo debe pensar, del mismo modo que nadie debe instruirlo en cómo ha de respirar o hacer que circule su sangre”. Sin embargo, sostiene, pueden explorarse los distintos modos de pensar e identificar el que resulte más eficaz. Quien lo desee puede adoptarlo. “La mejor manera de pensar que se examinará en este libro”, continúa Dewey, “se denomina pensamiento reflexivo”.
El pensamiento reflexivo no está constituido “por la mera ocurrencia de una sucesión irregular de ‘cualquier cosa’”, sino que es “una ordenación consecuencial en la que cada una de ellas determina la siguiente como su resultado, mientras que cada resultado, a su vez, apunta y remite a las que le precedieron”.
Esta forma de pensamiento “tiene un propósito”, pues “la cadena debe conducir a algún sitio; ha de tender a una conclusión que se pueda enunciar al margen del discurrir de imágenes”.
El pensamiento reflexivo –y esto es central en el pragmatismo– comienza con el deseo de justificar una creencia que justifique, a su vez, un curso particular de acción. La creencia “abarca todas las cuestiones acerca de las cuales no disponemos de un conocimiento seguro, pero en las que confiamos lo suficiente como para actuar de acuerdo con ellas”.
Es crítico. “Lo que constituye el pensamiento reflexivo es el examen activo, persistente y cuidadoso de toda creencia o supuesta forma de conocimiento a la luz de los fundamentos que la sostienen y las conclusiones a las que tiende”. Busca esos fundamentos en la evidencia, por lo que impulsa la investigación: “incluye un esfuerzo voluntario y consciente para establecer la creencia sobre una firme base de evidencia empírica y de racionalidad”.
Buena parte de lo anterior pueden hacerlo ya los actuales modelos de inteligencia artificial generativa. Existen, sin embargo, dos aspectos cruciales, que aparecen sugeridos en las citas anteriores y que por el momento no están al alcance de las IA.
Uno se ubica al inicio, como motivo del pensar, y el otro al final, como destino o propósito. Ambos se vinculan al deseo.
En palabras de Dewey: “el pensamiento reflexivo, a diferencia de otras operaciones a las que se aplica la denominación de pensamiento, implica: 1) un estado de duda, de vacilación, de perplejidad, de dificultad mental, en la que se origina el pensamiento, y 2) un acto de busca, de caza, de investigación, para encontrar algún material que esclarezca la duda, que disipe la perplejidad”. Aquí tenemos el inicio, el motivo del pensar reflexivamente, que presupone la aparición de la duda, pero se concreta en el deseo de eliminarla.
Al mismo tiempo, el pensamiento reflexivo se orienta a un propósito. Dewey utiliza el ejemplo de un viajero que se encuentra frente a la bifurcación del camino y debe decidir cuál de ellos tomar: “Esta necesidad de disipar una perplejidad también condiciona el tipo de investigación que se emprenda. Un viajero cuya finalidad sea encontrar el sendero más hermoso buscará signos de otra clase y someterá a prueba sugerencias, sobre una base muy distinta de la que utilizará si desea descubrir el camino hacia una ciudad determinada. La naturaleza del problema determina la finalidad del pensamiento, y la finalidad controla el proceso de pensar”.
En definitiva, creo que no hay nada de malo en valerse de los modelos de inteligencia artificial generativa. De hecho, aun en su estado actual de desarrollo resultan muy útiles, además de para ejecutar tareas rutinarias, para investigar e incluso mejorar nuestra forma de razonar. Esos son los procesos intermedios del pensar. Pero el deseo de disipar ciertas dudas, y el de seguir un curso particular de acción, los tenemos que aportar nosotros. Del mismo modo que lo hacemos al empuñar un cuchillo de cocina o un martillo. En definitiva, como con cualquier herramienta.
En una próxima entrega abordaremos el asunto de la eficacia, conectándolo con el de los propósitos. Tratará acerca de la distinción entre la bondad y la utilidad de la tecnología.
-
Efectivamente es así, aun cuando pasemos del amplio territorio de la opinión pública al estrecho espacio de los intelectuales. La entrada pensamiento de Wikipedia, traducida de la versión inglesa de aquel sitio y cuya lectura recomiendo, ocupa 58 páginas en formato A4. Incluye 170 referencias bibliográficas muy relevantes e identifica al menos siete teorías del pensamiento, desde Platón a la cuestionable propuesta contemporánea del pensamiento computacional, con variantes dentro de la mayoría de ellas. ↩
-
En la inferencia deductiva comenzamos con proposiciones que damos por verdaderas (como que todos los hombres son mortales y Sócrates es mortal). En la inductiva partimos de evidencia empírica (como que un cuerpo, en ausencia de una fuerza contraria, cae, otro cuerpo también lo hace, y otro y otro más). En la inferencia abductiva –propuesta por Peirce y que está en la base tanto de muchos de los pensamientos de humanos como de buena parte de los desarrollos en IA–, frente a un caso sorprendente, aventuramos una hipótesis que, si fuera cierta, tornaría al caso extraño en uno esperable de una nueva regla. ↩
-
Por su brevedad y genialidad lo transcribo completo: “En aquel Imperio, el Arte de la Cartografía logró tal Perfección que el mapa de una sola Provincia ocupaba toda una Ciudad, y el mapa del Imperio, toda una Provincia. Con el tiempo, estos Mapas Desmesurados no satisficieron y los Colegios de Cartógrafos levantaron un Mapa del Imperio, que tenía el tamaño del Imperio y coincidía puntualmente con él. Menos Adictas al Estudio de la Cartografía, las Generaciones Siguientes entendieron que ese dilatado Mapa era Inútil y no sin Impiedad lo entregaron a las Inclemencias del Sol y los Inviernos. En los desiertos del Oeste perduran despedazadas Ruinas del Mapa, habitadas por Animales y por Mendigos; en todo el País no hay otra reliquia de las Disciplinas Geográficas”. El hacedor, Jorge Luis Borges. ↩