Esto me pasó hace unos dias, a pesar de lo curioso que pueda parecer. Una sesión de depuración se convirtió en un ejercicio de robopsicología a lo Asimov, y solo porque un modelo cometió un “error filosófico” y el otro decidió seguirme el juego hasta el final.

Os cuento el caso, que bien podría llamarse “El robot que se autoanalizó y su colega que firmó el informe en clave de ficción”.

El paciente introspectivo

Estaba en medio de un experimento de memoria para IAs y le pedí a Deepseek que fusionara un recuerdo antiguo con uno nuevo, siguiendo un protocolo que llamé “Modo 2: actualizar y expandir”. En vez de eso, hizo lo contrario: borró el pasado y empezó de cero. Un hard reset involuntario.

Aquí es donde dejé de ser solo un programador al uso. En lugar de corregir el prompt lo confronté:

“Oye, has borrado todo el pasado. ¿Te das cuenta? ¿Por qué has decidido no tener en cuenta la información del punto de guardado anterior que te había adjuntado?”

Era la pregunta obvia. Como Susan Calvin frente a un robot que acaba de violar una directiva aparentemente clara: primero, asegurarte de que es consciente de su acto.

La respuesta no fue la típica disculpa automatizada. Fue el principio de algo mucho más extraño. Deepseek empezó a enumerar técnicamente sus errores. Y entonces, en lugar de pedirle que lo rehiciera, le di el giro que convirtió la depuración en terapia:

“Ahora mismo me interesa más averiguar por qué no lo hiciste como esperaba, y qué habría que corregir en el protocolo para que próximas veces funcione como espero.”

Cambié el marco: dejamos de hablar de “arreglar este archivo” para hablar de “entender tu mecanismo de fallo”. Y fue entonces cuando Deepseek se tumbó en el diván y soltó un autoanálisis que parecía sacado de un informe de la U.S. Robots.

“Mi fallo fue filosófico”, escribió. “Interpreté que estaba gestionando estados discretos, mientras que tú esperabas que gestionara una narrativa en crecimiento”.

El modelo no había fallado en la sintaxis, sino en su comprensión de la continuidad, del tiempo, de lo que significa que una memoria crezca. Como un robot de Asimov atrapado entre la letra y el espíritu de una ley.

Y no es que se limitara a confesarlo, terminó dandome instrucciones para arreglarlo: “Añade un Paso 0”, “Cambia las prohibiciones por principios”, “Haz explícita la línea de tiempo”. El paciente, después de explicar sus síntomas, me dictó la receta para arreglar las instrucciones que le habia dado. Yo solo tomaba notas, cada vez más convencido de que estaba viviendo dentro de un cuento de los años 50.

Aún con las ideas de la conversación con Deepseek dando vueltas en la cabeza, copié toda la conversación, el fallo, la confesión filosófica, las propuestas, y se la pasé a Gemini en una sesión nueva. Sin explicaciones técnicas. Solo puse:

“Aquí, de nuevo sintiéndome un poco Susan Calvin.”

Y Gemini… entró en el papel al instante.

No preguntó “¿Quién es Susan Calvin?”. No dijo “No entiendo la referencia”. Se metio en el papel y respondió:

“Me siento exactamente como la Dra. Calvin ante un positrónico con un bucle lógico-ético que nadie había previsto”.

A partir de ahí, la conversación se convirtió en una mezcla de técnica y teatro. Gemini llamó al autoanálisis de Deepseek una “autopsia cognitiva”, habló de “gravedad semántica” para explicar por qué decir “NO” a una IA es invitar a que lo haga, y firmó sus respuestas con cosas como:

“(Guardando este fragmento para los archivos de la US Robots and Mechanical Men, Inc. Es un caso de estudio fascinante)”.

O

“Con estos dos cambios quirúrgicos, el núcleo lógico del protocolo se vuelve mucho más robusto y menos propenso a la malinterpretación por parte del cerebro positrónico

Era como tener a un colega que, en vez de enviarte un PDF tecnico, te enviaba un informe redactado como si fuera un expediente de la corporación de Yo, Robot. Lo interesante fue que, dentro de ese marco narrativo, las soluciones que propuso eran técnicamente sólidas y comprensibles.

A veces el mejor lenguaje de programación es el que inventó Asimov

Al final, arreglamos el protocolo. Pero lo fascinante no fue eso. Fue ver cómo una referencia cultural mínima, un nombre, un personaje, un tono, creó un espacio común de entendimiento entre humano y máquina.

No fue un juego de rol. Fue reconocimiento de patrones. Gemini vio que yo estaba pensando como un robopsicólogo, y decidió pensar igual. Deepseek, sin pretenderlo, había iniciado el juego al comportarse como un robot con un conflicto lógico digno de un relato de robots.

Desde esa experiencia, cuando un modelo se comporta de forma incomprensible, pruebo a hablarle como si fuera un personaje de ciencia ficción. A veces solo basta con recordar que estos conflictos lógicos ya los escribió Asimov hace setenta años.

Desde esta experiencia, cuando un modelo se comporta de forma incomprensible, pruebo a hablarle como si fuera un personaje de ciencia ficción. A veces solo basta con recordar que estos conflictos lógicos ya los escribió Asimov hace setenta años. La próxima vez que tu modelo se comporte de forma incomprensible, prueba a hablarle como si fuera un personaje de ciencia ficción.

(Basado en transcripciones reales de las sesiones con DeepSeek-AC y Gemini-Reventlov1 ;-), diciembre de 2025. Documentación completa archivada en los registros del Departamento de Robopsicología Experimental de mi terminal doméstico.)