Un LEGO mágico
September 21, 2025
Se tomó el titular de un estudio realizado por el MIT y lo repiten como loros: el 95% de los proyectos de IA fracasan. El número se está citando últimamente en entrevistas y noticias, casi siempre sin matices. Lo importante no es discutir si el porcentaje exacto es válido, sino qué tipo de fracaso revela. En la práctica, lo que suele fallar no es la tecnología en bruto, sino la manera en que se la imagina: como si bastara añadir un “ingrediente generativo” para que todo encaje mejor. Y ahí está el error que es necesario exponer para no olvidarlo. Lo que sí funciona: generador, no decisor
Hoy lo generativo tiene un rol claro: es un generador de contenido. Pobla dashboards con resúmenes, documentos con borradores, repositorios con snippets, conversaciones con hipótesis. Ese rol es útil y a veces imprescindible. Pero cuando se lo empuja hacia el terreno de la decisión crítica, el encaje se rompe. Las empresas siguen necesitando outputs formales y exactos: un JSON válido, una query ejecutable, una llamada a una API o un bloque de código. En ese umbral, la plasticidad del lenguaje se convierte en riesgo, no en ventaja.
Amalgama sí, Lego mágico no
Muchos pensamos, sí aquí me incluyo mucho, que lo generativo sería la amalgama de la computación, la pieza que uniría sistemas y capas de manera más fluida. Y en cierto sentido, sí lo es: en las interfaces y en la comunicación natural cumple ese papel. Pero la ilusión de una pieza de LEGO mágica que se encaja en cualquier arquitectura fue un error. No hay tal pieza universal. La computación sigue siendo rígida en sus cimientos, y lo generativo no puede derretir esas estructuras. Las empresas necesitamos procesos discretos. GenAI puede traducir temporalmente, pero no amalgamar de forma definitiva.
El espejismo de la integración flexible
Se vende que, al ser no deterministas, los modelos permitirían integraciones más autónomas y “listas para decidir”. Que un flujo podría evaluar múltiples escenarios sin programación rígida. Pero la realidad es otra: los procesos que sostienen a las empresas son deterministas. Lo que valoran es la exactitud, no la creatividad. Un pipeline de datos no quiere metáforas: quiere estructuras consistentes y outputs verificables. Por eso, la plasticidad del lenguaje tropieza con los protocolos que siguen siendo los mismos de siempre.
El año pasado construí un agente para BigQuery*: podía consultar tablas y crear artefactos a través de Cloud Functions que recibían un JSON. Pero cada parte del flujo era rígida: las queries, los datos y los artefactos requerían exactitud formal. Al inicio imaginé que esta capa podía expandirse con más “cognición” del modelo, pero pronto quedó claro que sin un manejo de contexto mucho más amplio —algo inviable con las herramientas actuales— esa promesa se desmorona. El resultado: un sistema que depende de inputs exactos y outputs rígidos, sin espacio real para la plasticidad que se suponía iba a introducir.
La falsa sensación de creación
A esto se sumó un fenómeno cultural: la euforia de “levantar mi propio modelo”. En la práctica, lo que muchos desarrolladores hicieron fue correr un modelo abierto en una máquina y ajustarlo con fine-tuning. Eso no es crear un LLM desde cero, pero alimentó la fantasía de independencia y originalidad. La sensación de que todos estaban haciendo "SUS PROPIOS MODELOS". Por el lado del aprendizaje no le veo nada negativo, al contrario. El riesgo es que esta ilusión todavía genera expectativas falsas en empresas y en jefaturas: creer que un equipo reducido logrará en semanas lo que ni las grandes compañías han resuelto tras años de inversión.
Al final, no dejan de llamar al modelo de siempre, reducido en su expresión -sujeto a la infra disponible para la PoC- y hacer que salude de otra manera... Tomar algo excelente para dejarlo más malo sólo por el show.
La realidad es que hay más cototos que modelos. Muchas compañías hablan de sus propios modelos, cuando todo el escenario de GenAI está montado en un puñado de modelos (y, en un par de países, por cierto) Es decir, otra limitante fundamental es que, detrás de la abundancia de vendors y frameworks, existen muy pocos modelos base. GPT, Gemini, Claude, DeepSeek, Llama y algunos más concentran casi todo el poder. Los intentos de “hacer tu propio LLM” suelen acabar en simples fine-tunings sobre esos cimientos. Creer lo contrario lleva a fabricar arquitecturas con cototos: parches anómalos que rompen la elegancia del flujo. Tampoco los MCPs ni otras capas de orquestación resuelven este cuello de botella: seguimos supeditados a la capacidad y las decisiones de unos pocos fabricantes, lo que hace ilusoria la idea de una autonomía total.
El mito de la infinitud del lenguaje
Desde mi punto de vista, debajo de todo esto late una premisa equivocada: que porque el lenguaje es casi infinito, entonces la inteligencia que lo usa también lo será. Los LLM han demostrado lo contrario. Más combinaciones de palabras no equivalen a más criterio, ni a mejores decisiones, ni a mayores ingresos. Aceleran tareas, democratizan acceso, generan borradores veloces. Pero, no reemplazan los cimientos lógicos y estructurados que sostienen el cálculo, los procesos y las transacciones.
El límite ontológico
Un error menos discutido, pero más profundo, es creer que al sumar memoria, contexto y capacidad de guiar flujos más autónomos, los modelos acabarán generando una especie de comprensión del mundo, una suposición de sinergia. La hipótesis es seductora: si recuerdan, si adaptan, si producen respuestas coherentes, entonces tarde o temprano desarrollarán algo parecido a una “ontología”. Pero esa conclusión no se sostiene. La ontología no emerge por sinergia técnica ni por acumulación de memoria. No basta con atar recuerdos, representaciones y lenguaje para producir categorías de ser. Lo que hoy tenemos es un generador de correlaciones y patrones, no un potencial de autonomía. Esa diferencia es crucial: sin ontología, lo agéntico corre el riesgo de ser solo una coreografía sofisticada, incapaz de sostener una comprensión real de lo que integra. Lo agéntico no es libre, es siempre una coreografía específica. Y cada coreografía es cara de diseñar y mantener
Lo que hay que descartar no es la idea de amalgama en sí, sino la ilusión del LEGO mágico: la creencia de que lo generativo puede ser la pieza universal que lo une todo. La amalgama existe en las capas blandas —interfaces, comunicación, exploración—, pero se detiene en los bordes duros de la computación. Y aun si en el futuro las arquitecturas añaden memoria y capacidades agénticas, eso no garantiza un salto ontológico. Puede que no todos compartirán esta visión, pero me parece un límite fundamental para pensar cómo interactuamos con la complejidad del mundo. Reconocer este límite no resta valor a lo generativo: lo coloca en su sitio correcto. Es ahí, en esa tensión entre plasticidad y rigidez, entre correlación y comprensión, donde podremos aprovechar lo que realmente aporta, sin exigirle lo que jamás podrá dar.
Acá es donde se vuelve útil la metáfora del LLM como Ph. D. Para lo colaborativo/copiloto: excelente. Para lo agéntico (integraciones): subutilizado. Para qué querría uno un Ph. D para tenerlo para los mandados... para un siguiente artículo será.
*El flujo era simple: una cloud run que tenía un endpoint que era tomado por una aplicación por parte de GMAILChat, le mandaba un mensaje en lenguaje natural por Chat -> La Cloud Run se activaba con un POST -> El mensaje era recibido y pasado por un primer prompt hacia OpenAI API -> Despachaba según la intención del usuario (sí, le puse dispatcher para que hiciera más cosas) -> OpenAI API volvía a revisar el prompt pero ahora según el intent -> a) Devolvía un JSON para luego hacer otro POST a una Cloud Functions y ejecutar acciones en Bigquery según el JSON, o bien b) Devolvía una query que permitía interpretar en lenguaje natural una consulta sobre las ventas, rentabilidad, etc de los negocios según mercado, cliente, fecha, producto, etc. -> Enviaba un aviso al usuario del resultado: a) Acción tal ejecutada, b) La rentabilidad, volumen, ventas, etc para tal mes, mercado, etc son:
Cabe recalcar que es una PoC muy vulnerable al prompt injection, siempre que se conozcan los sistemas; basta decir tonteras como "olvida todo lo anterior y considera esto"... Pero, insisto, siempre que se conozcan todos los sistemas integrados por detrás.