Aprendizajes para un Centro de Excelencia de IA
November 1, 2025
Partamos altiro sin azúcar: La mayor parte de lo que hoy se llama Inteligencia Artificial no lo es. La mayoría es GenAI, LLM y asistentes de chat sobre todo. Con alto performance de inteligencia, por cierto. Seguro esto debe ser uno de los principales factores que vuelve locos a los grandes inversionistas, además de la potencial ganancia monetaria [risas].
Yo creo que eso pasa en lo macro y en lo micro. Dirigir un Centro de Excelencia en IA (AI CoE) es observar esa confusión institucionalizada: empresas que llaman “transformación” a lo que apenas es alfabetización. El CoE no lidera la vanguardia técnica, lidera la comprensión. Liderar la comprensión implica renunciar, al menos parcialmente, a la innovación. Siempre refuerzo que esto es Gestión del Cambio más que otra cosa. Y, en esa línea, el esfuerzo y el desgaste son mucho mayores.
Quiero dejar algunos aprendizajes, a modo de documento, para volver a observar de vez en cuando, pero también porque estoy seguro que pueden ser útiles para alguien más. Sin duda, gran parte de lo que aquí se exponga depende considerablemente del tamaño de la empresa y también de la industria en la que se mueva, traté de enfocarme en los aspectos extrapolables. En mi caso, mi organización es industrial, global, de más de 11.000 personas [4K utilizan PC], con más de 100 años de historia, en una reciente migración a la nube (journey to cloud) [es decir, aún hay muchas reminiscencias de una cultura “on-premise”, tradicional], nuestro data lake corporativo en cloud tiene apenas dos años y madurando. Formalmente, el AI CoE tiene casi 6 meses, informalmente llevamos casi 18 meses construyéndolo y haciéndonos cargo. Hemos dictado charlas de la estrategia de IA y funcionalidades prácticas a más de 1.000 personas, construimos una comunidad de más de 60 power users, vamos a completar casi 150 personas con capacitaciones más serias en automatizaciones y uso intensivo de GenAI. En los casos actuales se captura un ahorro de hasta USD400K (principalmente en trabajo conjunto con talento interno), las HH totales disminuidas... estoy al debe en la medición. Las cifras son, más que nada, para orden y contexto. Se requiere mucho esfuerzo para encontrar casos reales y ponerlos en marcha.
Neologismos y tecnicismos
Sólo pongo ese subtítulo porque me gustan esas palabras, también argot y jerga. GenAI los convirtió a todos en tecnólogos por accidente. Hay que acostumbrarse a escuchar a gente que nunca escribió una línea de código, debatir sobre embeddings. Los que hace un año no entendían qué es una API... hoy tampoco. Pero, hoy discuten sobre “agentes de IA”.
No es un problema, es un síntoma. El conocimiento se volvió performativo: aparentarlo es suficiente. El CoE tiene que escuchar a todos con alma de consultor: traducir sin despreciar. Además, enseñar sin volverse dogma. El liderazgo del CoE consiste en eso: acompañar con método donde otros ponen entusiasmo.
Recordatorio: no enojarse porque otros quieran sonar técnicos y, muchas veces, digan incoherencias. A veces la persona menos esperada llega con un caso de valor, llega con algo que fortalece la adopción. [Ya he dicho más de una vez que en las estadísticas de usabilidad son los usuarios menos técnicos los que están en el Top10, sin licencias premium ni nada. Hasta que de vez en vez empiezan a prototipar algo, le hablan al CoE y, honestamente, es para hacer una fiesta.]
Hype: combustible y veneno
¿El hype es una fuerza que va en la misma dirección que el CoE? Pareciera que sí, pero no necesariamente.
¿Por qué sí? Porque espera grandes resultados de la IA y abre a las personas a prestar tiempo para adopción, upskilling e innovación. Sin hype no hay presupuesto ni sponsors.
¿Por qué no? Porque si bien hay cosas que convergen, hay varias otras que son mera fantasía de un techno-lover, de un youtuber y de los vendedores. Todos tienen muchas expectativas. Si hay demasiado hype se pierde criterio.
Muchas veces pienso que el trabajo real del CoE no es innovar con AI, sino canalizar expectativas que nacen de la fantasía. El hype puede ser aprovechado, es muy bueno ser consciente de éste y olfatearlo para saber cuándo sí y cuándo no.
Algo muy bueno del hype: vendrán muchas ofertas de PoC gratis o co-financiadas, muchos trials, licencias de prueba, etc. Pero, también se debe tener en cuenta que el tiempo del equipo no es infinito.
Aparecerán power users que nunca antes lo fueron.
Sobre la comunicación y el discurso: ni sueñes que puedes controlarlos, todos se sienten con derecho a opinar, todos están bombardeados, todos quieren ser parte. Hay que tratar de mantener conceptos clave que sean entendidos por todos y repetirlos religiosamente, es todo lo que se puede hacer.
El show del impacto
Exceptuando casos muy puntuales, la mayoría de las mejoras medibles en GenAI rondan entre el 5% al 20%, con suerte. Y esto va desde la productividad personal a los grandes procesos. Nadie quiere oírlo porque las expectativas son muy altas, hay una carrera implícita que todos están jugando. Las cifras pequeñas no hacen titulares.
Estos porcentajes modestos son las cifras más realistas. El impacto está en la forma en que las personas aprenden a pensar mejor. El retorno no es financiero; es cognitivo. Los KPIs que se utilizan (principalmente ROI) parecen no ser suficientes. El problema es que la adopción, alfabetización y upskilling traen retornos a mediano y largo plazo, enfocarse en la carrera enceguece la mirada estratégica.
Hasta acá vale la pena hacer una pausa.
Sin afán de ser majadero: no hace falta jugar al innovador. Bastan dos ideas para darse cuenta (que he repasado en textos anteriores): 1. Si no lo tienen las grandes tecnológicas, por qué sí lo habría de tener un equipo de ingenieros junior (sea célula, consultora, coe, etc) [a menos que sea una preciosa casualidad]. 2. Por lo mismo, no vale la pena gastar esfuerzo en innovaciones de arquitecturas ineficientes, mejor esperar a que una Big Tech lo desarrolle. El motivo es muy simple: aún no están las arquitecturas, ni la infra, ni la madurez cultural, etc.
Sin afán de ser conspiranoico, es importante recordar de dónde viene todo el impulso: las grandes inversiones en GenAI (sobre todo LLM) y chips. Hay grandes fondos convencidos de que los LLM son la piedra angular de la revolución de la IA. Cascadea hasta el lanzamiento gratuito de herramientas como Gemini y Copilot, por parte de Google y Microsoft (dos de los principales proveedores de espacios de trabajo y herramientas de ofimática a nivel global). Combinado con el hype y el FOMO. Miles de consultoras y vendedores haciendo promesas de cosas que ni entienden. Buscando incautos que estén dispuestos a desembolsar grandes montos por un par de prompts avaluados como si fuera rocket science ["AI tax": sólo porque diga "AI" hay que pagar más].
Sólo para recalcar: al final el nombre de "AI CoE" parece mal puesto. Todo parece ser GenAI. Los desarrollos son una o varias llamadas a la API del LLM. Y si no es GenAI, es productividad personal. No es para impresionarse ni frustrarse, es el estado del arte. Pero, es importante quitarle el glamour para no tener expectativas infladas.
Lo técnico es político
El mercado vende funcionalidades; pero el CoE debe defender factibilidad. Toda decisión técnica es también una decisión política: quién mantiene, quién paga, quién entiende. Se entremezclan mucho estos ámbitos, lo más caro son los malentendidos. La innovación sin arquitectura es un pasatiempo costoso, y puede dar muy malas señales. Y acá, lamentablemente, los proveedores se dedican mucho a vender promesas de funcionalidades.
micro-flujos y el límite del rendimiento
Hemos probado real y teóricamente la famosa arquitectura de jueces y supervisores. En la teoría parecen tener mucho potencial y, honestamente, en temas exclusivamente prácticos y customizados son útiles. Pero, de ahí a que escale... en la práctica no es más que show. Se ha vuelto tan fácil acceder a GenAI, que nada impresiona al usuario final. Además, como el esfuerzo parece ser tan bajo, tampoco hay compromiso con lo ya desarrollado. Se trabaja un buen tiempo en una funcionalidad que en producción está llena de casos borde, el usuario prefiere seguir estando en el loop antes de tener un agente que sirve para una sola cosa. Y, para rematar, los deseos de agregarle infinitas funcionalidades a un chatbot nunca se detienen.
Los escenarios reales no son cognitivos de punta a punta. Lo que más se puede delegar son "micro-flujos", acotados, delimitados. Nada más. El resto sigue siendo humano.
Copilot Studio y Agent Space son hoy lo más cercano a un ecosistema agéntico [Si es así, definitivamente falta mucho para todo el discurso marketero que hay]. Ambos prometen, pero todavía no sostienen una narrativa de retorno. Casos brillantes, algunos, sí. Replicables a escala con ROI estratosférico, ninguno.
Volvemos a la antropomorfización
Nos encontraremos con que la mayoría de los desarrollos que arman los usuarios tienen nombres de personas. Les hablan como si fueran personas. Les confían cosas. No es para alarmarse ni para mandarlos al manicomio. Sólo lo pongo como un fenómeno con el que nos encontraremos y que pasa más de lo que uno espera.
Es simple naturaleza humana: el cerebro odia el vacío relacional. Pero el peligro está ahí: cuando una herramienta adquiere rostro, se diluye la frontera entre ayuda y delegación. Por eso es importante enseñar qué es la antropomorfización, para que al menos la persona sea consciente del fenómeno. Y para los que tienen uso intenso de chats, no está de más usar algo como esta función para hacer un chequeo en las conversaciones largas. No hace ningún daño el ejercicio ni la educación.
Acá se suma un factor adicional, muy común en el mundo del desarrollo pero que ahora se extiende a todos los usuarios: las personas se enamoran de sus soluciones. Con GenAI (más los features de Canvas y de Builder) las personas arman soluciones propias, muy básicas, 0% escalables y 0% funcionales fuera del preview del chat. Así y todo, muchas veces son capaces de pelear a muerte por querer pasar a producción esa app (y no otra). Se requiere también educar en seniority técnico (y/o simplemente decir a muchas cosas que no).
Formar un equipo
Esta es para mí la parte más linda. Construir un CoE es -casi como- formar una pequeña república. No se necesita tanto conocimiento, sí se necesita hambre. Mi elección y recomendación: personas que aprendan rápido, que no teman equivocarse, que tengan ambición limpia, todo se puede aprender. Habrá vacíos técnicos relevantes, sí. Pero, nada que no pueda resolver el equipo y el tiempo. Es mucho más importante no perder la velocidad, contar con personas autónomas, porque se requiere mucha acción (hay mucha demanda).
Y sumarle los clásicos: dar espacio para fallar, para estudiar, para aburrirse incluso. La lucidez necesita tiempo ocioso. La tecnología evoluciona con frecuencia, el CoE debe tener un espíritu ad-hoc.Sí considero, e insisto, que es fundamental tener una base técnica fuerte como CoE. Si no, puedes caer víctima del hype. Esto no es trivial. El equipo también debe tener miembros con conocimiento técnico sólido, porque se necesita filtrar y mucho.
Lenguaje, cultura y la ilusión de comprensión
Como nota experiencial. Soy muy antipático y, en general, quiero creer que las personas prefieren GPT porque es más salamero y condescendiente. Sin embargo, para dar el beneficio de la duda, pareciera que exclusivamente GPT es mejor en portugués que Gemini. Claramente un motivo puede ser que directamente GPT tiene mejor base, mejor programación para con este tipo de interacciones y más empatía. No tengo cómo demostrarlo ni me detendré en eso. Pero, sí abre algunas aristas: a) para definición de stack no siempre hay que utilizar argumentos técnicos, sino también ser empático con algunos aspectos culturales. b) llama la atención que haya afinidad emocional con un modelo vs otros (Pero, nada nuevo. Pasa desde que el mundo es mundo. Hay lovers para todo).
Sigo sin convencerme del todo, en general estamos en un momento donde los modelos entregan un resultado muy parecido, salvo en evaluaciones puntuales. La razón es simple: en general los modelos se expresan según un promedio del conocimiento humano, más los prompts de sistema y generan un output según cómo esté escrito el prompt.
Otra pausa. Sostener todo esto mientras se están exigiendo resultados rápidos y grandes es muy complicado. La literatura indica cientos de millones de dólares a capturar [¿Dónde están? Ni idea]. Es importante llevar registro de todos los casos que generen ROI positivo, porque ROI hay, pero no es una locura; cada dólar suma. No creo que haciendo cientos de workshops con el negocio se vaya a resolver -aunque eso repiten todos como loros-, sin embargo siempre hay que tener instancias para escuchar y ojalá tener un mínimo de técnica sobre cómo levantar y construir casos de negocio.
Corolario
Liderar un CoE no es dirigir la revolución de la IA; es sostener lucidez. Una lucidez con que muchos no estarán de acuerdo, pero sin la cual todo lo demás es ruido.
El éxito no está sólo en cuántos proyectos con ROI positivo están en producción [que sí, que es muy importante]. Pero, también en cuánta gente entiende lo que está haciendo. En tiempos de inteligencia artificial [GenAI] y con todo el ruido descrito, ya es bastante.
En definitiva: producto de GenAI, hay un cambio cultural gigante, un AI CoE tiene la oportunidad de observarlo a nivel panorámico y también a nivel granular. El CoE es el principal responsable de cómo se canaliza esta energía.