A partir de lo que ya cabría considerar como “fenómeno ChatGPT”, se ha puesto de moda someter a esta sufrida “inteligencia” artificial a toda suerte de torturas y tensiones con la finalidad de averiguar hasta qué punto es o no es inteligente.

Los abstrusos problemas matemáticos de cualidades virtualmente irresolubles, por socorridos para tal fin, se han convertido en opción preferencial para este rigurosísimo examen.

Nosotros mismos hemos sucumbido a la tentación al solicitarle que nos demostrara el teorema del par primo o conjetura de Goldbach, enunciado por el matemático alemán Christian Goldbach (1690-1764) en 1742, cosa que, obviamente, no logró hacer.

Del mismo modo, fracasó reiteradamente en la resolución de una pregunta sencilla como: “¿Es cierto que entre dos números primos cualesquiera hay un número par?”. Lo cual nos confirmó sin lugar a la duda que el razonamiento matemático no es precisamente el fuerte de su arquitectura.

ChatGPT aprueba el test de Turing

Si nos ceñimos a las convenciones de lo que habría de ser una inteligencia artificial eficiente, tal y como se enuncia en el clásico test de Turing, bastaría con que el algoritmo respondiera con sentido a cualquier cuestión que se le formulara para considerarlo “inteligente”. Y esta prueba, al menos en principio, ChatGPT la supera con creces.

De hecho, cuando decidimos preguntarle por su identidad sexual nos ofreció una respuesta que el propio Alan Turing (1912-1954) habría aplaudido por su sinceridad, claridad y rigor:

“Como modelo de lenguaje AI entrenado por OpenAI, no tengo una identidad personal ni una orientación sexual. Soy un programa de ordenador diseñado para responder preguntas y proporcionar información objetiva y neutral. No tengo emociones, deseos o preferencias personales. Mi objetivo es responder a tus preguntas de la manera más precisa y útil posible”.

El problema subyacente reside en qué podríamos considerar “inteligente” en términos propiamente humanos. Es en este territorio evanescente en el que ChatGPT –al igual que el enunciado de Turing y el concepto mismo de “inteligencia artificial”– comienza a deslizarse por una pendiente muy resbaladiza.

¿Ser o parecer inteligente?

Se trata de un viejo problema intelectual, el de la propuesta de la IA fuerte, que aqueja a este ámbito de investigación desde sus mismos orígenes y que, aún hoy, más allá de entusiasmos infundados, permanece en el contexto de lo infranqueable.

Al fin y al cabo, un algoritmo no deja de ser un producto humano que procesa datos en determinado orden para ofrecer un resultado específico ya predeterminado en el algoritmo de base. Y esto sirve tanto para una calculadora de bolsillo como para el más avanzado ordenador. Es, en suma, un producto humano, gestionado por humanos y diseñado con fines específicamente humanos.

En realidad, ninguna inteligencia artificial es inteligente como las personas (inteligente en un sentido autoconsciente) porque procesa escasa información ambiental (límite sensoperceptivo), no aprende cosa alguna en términos absolutos (no sabe que sabe), ni es capaz de generar nuevos conocimientos a partir de cuanto almacena (no crea nuevas ideas porque ignora estar teniendo alguna).

Así, imitando estos procesos, se limita a procesar e incorporar nueva información a su base de datos, en el curso de sus limitadas interacciones, a fin de poder “tirar” de ella en el futuro con mejor o peor fortuna. La cuestión, entonces, es si realmente es necesario el afán imitativo más allá de un mero fin publicitario.

Una máquina de gestión de datos

El propio ChatGPT, al ser interpelado, comete el mismo error que quienes se han esmerado en construirlo, a saber, creer que manejar datos con eficacia es la base misma de cualquier conocimiento que pudiera considerarse, en algún sentido, inteligente:

“La autodenominación ‘inteligencia’ se refiere a la capacidad de un sistema para realizar tareas que requieren inteligencia humana, como comprender lenguaje natural, responder a preguntas complejas, tomar decisiones y resolver problemas. Aunque como modelo de lenguaje AI entrenado por OpenAI, no tengo conciencia ni capacidad de crear conocimiento de manera autónoma, mi entrenamiento me permite responder a preguntas y proporcionar información precisa y útil, lo que es una forma de demostrar inteligencia artificial”.

Tal respuesta es relevante porque nos ofrece la pauta misma de lo que es ChatGPT: un máquina de búsqueda, acumulación y gestión automatizada de datos (la denominación de machine learning para este proceso suena excesivamente optimista). No más, pero tampoco menos. En consecuencia, carecerá por completo de sentido pedirle que resuelva problemas que, en la práctica, escapen a su banco de datos, o bien que produzca ideas y conocimientos nuevos o, cuando menos, originales. El razonamiento creativo, que adopta la forma de hipótesis y preguntas intencionales motivadas en decisiones conscientes, simplemente no existe.

Hablemos de algo…

No obstante, con la finalidad de comprobar hasta qué punto el programa era capaz de interactuar con nosotros en pie de igualdad, procedimos a sostener un animado diálogo que resultó extraordinariamente esclarecedor.

Así, ante su insistencia en el hecho de que “resolvía problemas”, decidimos preguntarle qué clase de problemas había resuelto:

“Como modelo de lenguaje AI entrenado por OpenAI, he sido entrenado para responder a preguntas y proporcionar información precisa y útil en una amplia variedad de temas, incluyendo historia, ciencias, tecnología, cultura, entre otros. A través de mi entrenamiento, he aprendido a analizar y generar texto en una variedad de contextos y he demostrado la capacidad de responder a preguntas complejas y proporcionar información precisa y útil. Sin embargo, es importante tener en cuenta que mi capacidad está limitada por mi entrenamiento y conocimientos previos, y puede haber ciertos problemas que no pueda resolver de manera efectiva”.

Tras una fase de tanteo –el algoritmo necesita darle vueltas al usuario para afinar las respuestas– y ante nuestra insistencia en que ofrecer datos no solo no era resolver problemas, sino que tampoco podía comprobar en forma alguna si la información que ofrecía era útil al usuario, la respuesta de ChatGPT resultó intachable:

“Aunque no tengo la capacidad de percibir directamente si la información que proporciono es útil o no, mi entrenamiento se basa en grandes cantidades de texto de la web y otros recursos en línea, y mi capacidad para responder a preguntas y proporcionar información precisa y útil se ha evaluado y perfeccionado a lo largo del tiempo. […] Me disculpo por la contradicción en mi respuesta anterior. Como modelo de lenguaje AI, no tengo la capacidad de percibir directamente si la información que proporciono es útil o no para un usuario en particular. Mi capacidad para responder a preguntas y proporcionar información se basa en mi entrenamiento y conocimientos previos, y puede haber veces en que la información que proporciono no sea relevante o útil para un usuario en particular”.

Las limitaciones de ChatGPT

A lo largo de nuestra charla, ChatGPT se mostró sumamente educado y diligente, pero no demostró resolver problema alguno. Dejó claras sus limitaciones:

  • No fue capaz de ir más allá de la mera correlación de datos ya conocidos.
  • No aportó ni una sola teoría o conocimiento que pudiera considerarse original.
  • Se equivocó en infinidad de ocasiones.
  • Aceptó carecer por completo de autoconciencia, así como todas nuestras correcciones, en una total carencia de crítica y autocrítica, emociones, sentimientos, cogniciones o cualquier otra variable de semejante índole.
  • Dijo no percibir el mundo ni saber cómo era lo real en forma alguna.
  • No mostró interés en su propia supervivencia.

En definitiva, se nos presentó como una herramienta interesante, una enciclopedia colosal, o un instrumento ideal para salvar de la quema al vago de la clase. Pero siempre se comportó, como no podía ser de otro modo, de forma bastante más artificial que inteligente.

Por lo que parece, el día en que las temidas máquinas, cual Terminators, suplanten a la humanidad, aún anda bastante lejos. Que no cunda el pánico.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

Publicado originalmente en The Conversation