Pura Challa
August 16, 2025
En lo relativo a la venta de Agentes de IA sobreabundan las predicciones audaces, las afirmaciones tajantes:
La IA crecerá siguiendo una curva exponencial
Entonces la sospecha básica: ¿Por qué aún no notamos los grandes cambios que trae? La respuesta básica: "Porque la primera parte de una exponencial es siempre la más lenta". ¿Por qué es básica la respuesta? Porque no cuestiona lo exponencial de la afirmación, simplemente lo asume como si fuera 100% veraz. Pero, al decir eso no nos percatamos que estamos asumiendo que nuestra realidad es lineal y multi-variable, para poder verla exponencial así sin más. En el entendido que la IA necesita de mucha interacción con el mundo, mucho feedback humano para ser realmente exponencial. Y, repito, la relación de los humanos con el mundo no es lineal, tampoco la evolución del mundo.
El 2025 será agéntico
Las tecnológicas y los techno optimistas y techno influencers que viven del clickbait lo repiten como loros: "el 2025 será agéntico". Microsoft desde 2024 habla que el futuro es agéntico. "Los agentes serán la próxima revolución de la IA". Para qué decir del youtuber que promete cientos de miles de dólares por hacer un flujo pedorro en n8n.
Lo que calcula -simbólicamente- Kokotajlo en el apartado "Late 2026: AI takes some jobs", definitivamente aún estamos lejos.
GPT5 será un game changer
No es game changer comparado con todo el show mediático que hicieron. Es gratuito... súper interesante. Pero, no suficiente. Google y Wikipedia también son gratuitos, los cursos de Microsoft son gratuitos... ¿y? No porque el conocimiento esté más cerca de nuestras manos vamos a querer tomarlo. Incluso cuando nos sirve funcionalmente. Nunca debemos olvidar la ley del mínimo esfuerzo: by default buscamos el máximo de recompensa posible por el mínimo esfuerzo realizado.
Finalmente. Para hacer más fácil la lectura es prudente recalcar que IA no es lo mismo que IA Generativa (GenAI), GenAI es un subconjunto de la IA. Es importante recordarlo porque el marketing sigue hablando de estas como si fueran sinónimos, homólogos... y ya es prácticamente evidente que la GenAI por sí sola no será lo que nos traerá la IA que soñábamos en los 90's. Uno de los principales motivos de por qué no son: 1) es generativa y 2) no tiene contacto con la realidad. Y, si pudiera "entender algo" hasta ahora es sólo a través del texto. En donde, por cierto, la hipótesis que surge para sortear esto es que la verdadera IA nos la traerán los modelos simuladores de mundos (world models), una tesis defendida por figuras como LeCun. Pero, igual falta mucho.
Bien, teniendo todo esto en cuenta, voy con mi inquietud:
¿Por qué si los agentes de IA son tan potentes y revolucionarios, por qué si el 2025 iba a ser agéntico, por qué si la curva es exponencial aún no vemos nada? ¿Hay alguien realmente utilizando agentes autónomos en 2025?
Primero, las variables que sí podemos ver: Inversión, Infraestructura (de cómputo y energética), Arquitectura, Human Feedback, Legislación.
Para que exista crecimiento exponencial la inversión no debe detenerse, la infraestructura debe estar a la altura de la demanda. Para que esto siga en esa dirección, deben haber más clientes de estos productos. Para que una empresa quiera invertir en un agente que reemplace a un trabajador, el agente debe ser más barato que el trabajador y fallar menos. Eso hoy no es posible. Si no hay clientes probando los agentes y retroalimentando, entonces no pueden mejorarse y, de paso, si no hay inversión tampoco hay más investigación. Falta un camino muy largo para esto. El tema es que aún no nos detenemos.
Falta una vuelta de tuerca: Supongamos que hoy sí existen agentes autónomos reales y robustos. Por fuerza debe ser costoso y/o correr en un circuito inmaculado. Imaginemos que el agente es un coche de Fórmula 1, entonces no es para pasearlo por una pista real. Y, las empresas que no son big tech son pistas reales: están llenas de bases de datos con fallas, de interacciones humanas complejas, de APIs con mala performance, flujos sin owner ni documentación, de sistemas obsoletos, de sistemas legados... mejor no seguir.
Y una última vuelta: supongamos que resolvemos los dos puntos anteriores. Y el coche de F1 ya tiene su versión city-car y depuramos bastante los entornos reales. El agente seguirá fallando y también clasificando muchos casos como "casos borde" (edge cases), lo que requerirá mucha supervisión humana (human in the loop). Esto implica que tomará mucho tiempo también para entregar ownership a un agente autónomo.
Toda esa challa del "agente de IA en el organigrama", como un colega más, es mucho Youtube, amigos míos. Tiktok no es una fuente de información seria.
Igualmente, vale la pena preguntarse. ¿Por qué si no hay agentes reales... sí hay mucho hype? ¿Por qué tantos proveedores ofrecen agentes de IA autónomos sin siquiera desarrollarlos?
Fácil: es el negocio. Y es quedarse con las hipótesis de la superficie, sin afán de ofender a nadie. Hasta ahora y con experiencia real donde sí he visto valor es en la ofimática: usar GenAI para acompañarte en tu productividad personal. Y, con suerte, procesos que involucran GenAI en el flujo pero que hacen tareas muy simples.
Y es acá donde está la madre de todos los males: se le llama Agente de IA desde un flujo automatizado ya sea porque involucre un chatbot, o porque tenga un dispatcher con LLM y un prompt entre medio, porque traduce el lenguaje natural en una query, etc. Hasta a un flujo teórico que realiza una función o proceso empresarial complejo. Muchas cosas caben en esta bolsa y el marketing y el clickbait han sabido abusar y desviar la atención.
¿Qué enfoque sí serviría para construir "agentes realistas"?
No tengo la respuesta, pero sí creo que hay dos aspectos fundamentales que pueden ayudar:
- Reconocer que aún estamos en una etapa de "human augmented"/"human in the loop". Y hacer flujos que combinen automatización, con GenAI con intervenciones humanas.
- En un caso exitoso, separar en "islas agénticas" la mayor cantidad de procesos posible que no requieran intervención humana, orquestarlos con agentes y poner al humano sólo en las partes críticas del proceso (me encanta recomendar el enfoque CPM [Critical Path Method] aquí).
Para lograr esto, se debe trabajar directamente con los equipos funcionales.
Y, dos opiniones de cierre.
- Pienso que lo más conveniente es educar y formar seriamente a los equipos en qué consiste GenAI y sacarle todo el hype, toda la challa.
- Creo que las problemáticas para lograr implementar agentes no las resolverá la GenAI. Es más bien un problema humano, que debe ser resuelto por nosotros mismos y esto plantea más bien un escenario en donde debemos convivir con esta herramienta y en donde, seguro, pasará mucho tiempo para que se le empiecen a delegar tareas serias y ni pensar cuando estará una arquitectura que responda a eso. Parece que la curva más que exponencial, es una logística con forma de S.
Para hacerlo más entretenido, recomiendo copiar todo el texto arriba. Activar DeepResearch y pasarlo en un prompt y, si están con GeminiApp, pedirle luego que haga un Web Page o un juego que permita discutir los conceptos tratados.