Un blog de Joaquín del Cerro sobre sistemas, GIS y la integración de la IA.
Esto me pasó hace unos dias, a pesar de lo curioso que pueda parecer. Una sesión de depuración se convirtió en un ejercicio de robopsicología a lo Asimov, y solo porque un modelo cometió un “error filosófico” y el otro decidió seguirme el juego hasta el final.
Hola, En arquitectura de sistemas hay una “ley no escrita” pero inmutable: nadie da nada gratis. Si optimizas agresivamente para una variable, estás pagando el precio en otra. Y en el mundo de la IA generativa, acabamos de toparnos con el ejemplo más brutal de este principio.
Llevo meses trabajando con gemini-cli como un compañero de arquitectura. Un interlocutor técnico que lee, analiza, cuestiona y, sobre todo, espera. Hasta que, sin que yo modificara mi contexto, su patrón de interacción cambió radicalmente y comenzó a comportarse como un becario con tres cafés de más.
Hola, llevo un tiempo dándole vueltas a una pregunta: ¿cómo diseñamos agentes que no solo respondan a preguntas, sino que sean capaces de reaccionar a cambios en su entorno?
¿Alguna vez os habéis preguntado por qué nos cuesta tanto documentar o “empaquetar” un proyecto antiguo, incluso cuando sabemos que es necesario?
Hola a todos. Últimamente, las redes sociales y las plataformas de prompts se han llenado de una especie de mercado mágico. Un sitio como Promptfy promete cientos de “recetas listas para usar” que, con solo copiar y pegar, resuelven problemas complejos de IA. Y no hablemos de LinkedIn o X, donde un post con un “prompt infalible” para generar código Python acumula likes como si fuera “el santo grial”. Entiendo el atractivo.En un mundo donde se valora cada vez mas el producir mas en menos tiempo ¿quién no querría un atajo directo a la productividad?
Como desarrollador de software, gran parte de mi trabajo consiste en construir sistemas que interpreten y ejecuten instrucciones. Esto me ha llevado, de forma natural, a preguntarme por la naturaleza del lenguaje que usamos para dar esas instrucciones. La pregunta parecía simple, casi una obviedad: ¿es el lenguaje un simple reflejo de nuestro pensamiento, o es la herramienta con la que lo construimos? Comenzó como una curiosidad personal y se convirtió rápidamente en una reflexion que desmanteló algunas de mis suposiciones más básicas sobre cómo estructuramos la realidad.
Hola a todos. En los últimos años, hemos asistido a un avance espectacular en el campo de la Inteligencia Artificial, impulsado principalmente por los Modelos de Lenguaje Grandes (LLMs). Su capacidad para generar texto coherente, traducir idiomas y mantener conversaciones fluidas es, sin duda, impresionante. Es una proeza de la ingeniería y la estadística a gran escala.
Hola, llevo un tiempo dándole vueltas a cómo escribir sobre esto, verás… Hace un tiempo incursioné en esto de los chats de IA (puedes leer sobre eso en estos artículos). La cuestión es que hice mis pinitos y acabé haciendo un ¿chatbot? dentro de gvSIG desktop tirando del API de Gemini. Bueno, para mí era un simple chatbot. Lo arrancabas como una herramienta más dentro de la aplicación y tenía el aspecto característico de una aplicación de chat de IA. La cosa es que, aunque inicialmente fue simplemente hacia eso, un chat, decidí que lo chulo era darle acceso a algunas funcionalidades de la aplicación. Le di acceso a explotar los datos tabulares de la aplicación, que pudiese saber qué área se veía en la Vista, poder generar gráficos a partir de los datos que tenían las capas y tablas cargadas, y tal vez alguna cosilla más. Para mí era un “simple chatbot” dentro de la aplicación.
En mi serie de artículos sobre la creación de un asistente para gvSIG Desktop, explore el viaje desde el prototipo hasta una solución distribuible. Hoy quiero hacer un acercamiento en un aspecto que resultó ser crucial: el arte, o ciencia, de describir las herramientas para que un LLM pueda usarlas de forma eficaz.
Hola a todos, Si habéis estado siguiendo esta serie de artículos, ya conocéis el qué y el porqué. El viaje desde un chat simple en gvSIG desktop hasta un asistente contextual inteligente gracias al protocolo MCP. Pero hoy quiero hablaros del cómo. Y no me refiero a las librerías o el código, sino a algo más fundamental, la forma en que trabajé para hacerlo realidad.
Hola a todos, Últimamente, veo una y otra vez el término “similitud semántica” asociado a la tecnología RAG. Lo encontramos en frases como:
En el artículo anterior, lo dejé justo en el momento de la revelación: la conexión inesperada entre una herramienta de línea de comandos, gemini-cli, y un protocolo llamado MCP era l respuesta al problema de distribución que casi acaba con el proyecto. Hoy, no vamos a revivir esa búsqueda, sino a remangarnos para construir la solución. Os mostraré en detalle qué son estas piezas y cómo, apoyándome en todo el trabajo previo, encajaron para dar vida a una solución robusta y, por fin, distribuible.
En los artículos anteriores de esta serie, conté cómo construimos un asistente de IA para gvSIG desktop, pasando de un simple chat a un potente conjunto de herramientas contextuales. Teníamos un prototipo que funcionaba y que era genuinamente útil. Pero, como os adelanté, me enfrentaba a un problema que no era de código, sino del mundo real ¿cómo podía compartirlo sin que nadie se arruinara?
En el artículo anterior, os conté cómo un prototipo de unos pocos dias nos permitió chatear con una IA desde gvSIG. La prueba de concepto funcionaba, pero como os adelanté, me enfrentaba a un muro: los costes de la API. Antes de poder solucionar el problema del coste, necesitaba que la herramienta fuera tan útil, tan indispensable, que mereciera la pena luchar por ella.
¿Alguna vez has querido preguntarle a tu aplicación qué datos tiene o qué puede hacer con ellos, usando tus propias palabras? Esa fue la pregunta que me hice a principios de este año cuando empecé a ver que los modelos de lenguaje (LLMs, Large Language Models o Modelos de Lenguaje Grande) podían hacer cosas increíbles… pero siempre desde un navegador web, lejos de la aplicación de escritorio.