Integrantes de la caravana migrante en el estado de Chiapas, en el sur de México, denunciaron este jueves 21 de noviembre que las autoridades les bloquearon...
- 11/08/2024 01:00
- 10/08/2024 14:29
Octubre de 1950, en el Vol. LIX, No. 236, la revista Mind publicó un texto de Alan Turing en torno al cual giraría gran parte de las discusiones teóricas sobre IA en las décadas siguientes: ‘Computing Machinery and Intelligence’ [Máquinas computadoras e inteligencia] es el título del artículo.
La pregunta que se plantea Turing es osada: ¿pueden pensar las máquinas? Entonces, apenas se estaban echando los cimientos conceptuales, teóricos, para el desarrollo de la inteligencia artificial (IA). Pero en ese momento, Turing era optimista, y finalizaba su famoso texto diciendo: “Podemos esperar que las máquinas lleguen a competir con los hombres en todas las ramas puramente intelectuales”.
La pregunta de Turing, pese a lo osadía, no era del todo precisa. ¿Qué significa ‘pensar’? Ante esa pregunta se podría adoptar una postura poca operativa e inconducente, a lo Heidegger (¿Qué significa pensar?, Trotta, 2023), pero la respuesta a la pregunta no tiene que ser pretenciosa (ni filosófica). Se trataba, por el contrario, de responder de modo que podamos expresarla canónicamente de una manera simple, algo como piensa(x) si y solo si C(x), donde C denota una condición (propiedad, atributo, actividad) satisfecha por cualquier instancia de sustitución de x.
‘Pensar’, por otro lado, está incluido en la inteligencia, en el sentido conjuntista de ‘inclusión’, de modo que, si un ser piensa, es inteligente. La inversa no es correcta: los animales no humanos son inteligentes, pero no piensan. La situación puede expresarse lógicamente así: si humano(x), entonces si piensa(x), entonces inteligente(x), es decir, los humanos son un subconjunto de los seres pensantes y estos un subconjunto de los seres inteligentes.
En ‘La ciencia de la computación como investigación empírica: símbolos y búsqueda’ (Communications of the Association for Computing Machinery, 3/19/1976), Allen Newell y Herbert A. Simon señalan “Nuestro análisis de la inteligencia la equipara con la capacidad de extraer y utilizar información acerca de la estructura del espacio del problema, ...” (el texto aparece en Boden, M. Filosofía de la inteligencia artificial, FCE, 1990, pp. 122-152, el pasaje citado se encuentra en el epígrafe Inteligencia sin tanta búsqueda, p. 147).
Pensar se entiende como la capacidad de procesar o manipular símbolos (enfoque simbólico de la IA): piensa(x) si y solo si procesa símbolos(x), y – por lo enunciado en el párrafo anterior– si humano(x), entonces procesa símbolos(x). Procesar símbolos es, pues, una característica humana, aunque no exclusivamente humana, no es un atributo esencial: algunas entidades no humanas son procesadores de símbolos, v.g., las computadoras digitales, ChatGPT, etc.
Sin embargo, hay un rasgo que no es capturado por la definición: el pensamiento (procesamiento de símbolos) es intencional: pensar ‘en’ x entraña ‘dirigirse a’ x, y no está claro dicho rasgo cuando x = la computadora digital o ChatGPT. Dado este rasgo intencional, las máquinas, aunque procesan símbolos, ni piensan ni son inteligentes, posiblemente imitan o simulan inteligencia, pero hasta ahí.
La inteligencia es, más bien, un rasgo de un sistema biológico con una estructura organizacional compleja (sistema neurocerebral). De modo que cuando se dice que las máquinas son inteligentes o que piensan (o pueden pensar), hay que tomar con cautela estas palabras, como expresando una metáfora o una analogía y nada más.
La IA, sin embargo, nos ha seducido, al punto de que nos tomamos muy en serio sus predicciones, el ‘arte’ que produce, los textos que genera, etc. En ella creemos haber encontrado un aliado para todo o casi todo. Y como tecnología lo es, aunque no es algo que debemos sobrestimar.
Posiblemente la IA logre lo que infinitos monos escritores, científicos o artistas (véase el teorema del mono infinito). Pero estamos lejos de eso. Suponiendo un sistema S de IA, ¿podría considerarse a S como un agente epistémico? Nuevamente la cuestión: ¿qué significa ‘ser un agente epistémico’?
‘Agente’ significa –de acuerdo con el Diccionario de la lengua española– el que obra o tiene la capacidad de obrar, esto es, de hacer o producir algo. En sentido epistémico, un agente:
a. Ha de evaluarse como el autor de la (su) creencia o conocimiento,
b. ha de verse, igualmente, en términos de la integración cognitiva de la que es capaz, y
c. es un ser autónomo.
(véase, Broncano, B., 2011, Engaged epistemic agents, Crítica, Revista Hispanoamericana de Filosofía, 43(128), pp. 55-79).
Bajo estas premisas, difícilmente le imputaríamos agencia epistémica a ChatGPT o a otro sistema de IA actual. Que ChatGPT, o cualquier otro sistema de IA, nos presente una demostración de la hipótesis de Riemann, por ejemplo, no implica conocimiento (creencia); si ello ocurriera, más bien significa que los humanos (matemáticos o ingenieros computacionales) habrán ideado un procedimiento algorítmico efectivo para resolver ese problema.
Un sistema experto es un sistema informático que tiene la capacidad de representar el conocimiento de una persona experta sobre un tema (medicina, derecho, ciencias, finanzas, etc.) de forma accesible y modificable; y puede usar dicha representación mediante un proceso general para producir respuestas sobre los temas en cuestión y explicar dichas respuestas a demanda por parte de usuarios (Cuena, J. Lógica informática, 1985, específicamente Cap. 15: El razonamiento aproximado en sistemas expertos).
En el pasado (décadas de los 70 y 80), sistemas como Macsysma (en cálculo integral y diferencial), Dendral (en química y biología), Prospector (en geología), CASNET (en medicina), fueron algunos de los más conocidos y exitosos; recientemente se han desarrollado otros como IBM Watson (para salud), Tesla (para decisiones autónomas de vehículos), AlphaGo (para jugar Go), etc., los cuales parecen corroborar el optimismo de Turing.
Por ejemplo, en 2017, según reportan medios, AlphaGo derrotó a Ke Jie, campeón mundial de Go, (en 2016 había derrotado al segundo clasificado mundial, Lee Se-Dol), pero, aunque se trate de un sistema experto, no es un agente epistémico en el sentido descrito, a menos que estemos hablando de un sentido metafórico adscrito a esta expresión.
Se trata, en efecto, de una tecnología, por lo tanto, es un producto humano en el que se han incorporado históricamente insumos conceptuales diversos: desde la lógica (álgebra booleana, lógica borrosa), probabilidades, redes bayesianas, etc., aunque nada de eso la exime de sesgos y limitaciones (véase Bernal, C. & Robles, M. Justicia algorítmica y sus limitaciones: Un teorema de imposibilidad, 2023). La IA es una extensión de nosotros mismos.
Al margen de ello, la IA ofrece una gran ventaja con respecto a la natural actividad razonadora humana: su capacidad de cómputo para tratar de manera eficiente cantidades astronómicas de información nos supera con creces.
Pero eso no es una razón aceptable para eludir responsabilidades. Si, por ejemplo, el algoritmo ‘predice’ que hay una alta probabilidad de que el sospechoso no abandone el país, pero lo hace, no puede escudarse el juzgador en “la inteligencia artificial” como excusa por no tomar las previsiones necesarias.
Tampoco el fabricante de autos y/o el conductor cuando el sistema tome una decisión fatal, ni el inversor que ha perdido sus ahorros al invertirlos en la bolsa de valores, ‘aconsejado’ por el sistema que había recreado un escenario optimista para acrecentar el patrimonio. La responsabilidad humana no puede ni debe ser delegada a la IA, sus (des)aciertos son, esencialmente, nuestros.
El autor es Profesor de Lógica. Académico de la Universidad de Panamá