AI 2028
December 2, 2025
Llega Diciembre. Y ya es momento de comenzar a mirar Enero… Enero del 2028.
El paralelismo automotriz sigue siendo prodigiosamente útil: En 1910, para manejar un automóvil tenías que conocer mecánica. En 1960, la interfaz ya era tolerable. En 2024, usar GenAI todavía requería saber “mecánica cognitiva”: cuidar las alucinaciones, iterar prompts, detectar errores, entender límites, saber conducir el modelo sin chocar. Pero entre 2026 y 2028 ocurrió el verdadero quiebre: la mecánica desapareció bajo la interfaz. El usuario dejó de operar. Después dejó de decidir. Luego, deja de ser el nodo de decisión crítica.
Las aplicaciones se volvieron superficies mínimas donde uno aprieta un botón y el resto lo decide un sistema que ya entendió más de lo que el humano podría mantener en su cabeza. De ahí nace la tesis incómoda: lo que vivimos en 2024–2025 como “adopción de IA” fue apenas la fase previa al colapso completo de la complejidad cognitiva. Lo que viene en 2028 es una delegación estructural, sostenida y prácticamente irreversible. Ese colapso afecta principalmente al trabajador del conocimiento: roles basados en análisis, síntesis, decisión y articulación cognitiva.
Porque hay que decirlo sin adornos: el prompting fue una skill transitoria. Un puente. Una etapa. Prehistoria. La interfaz va a enterrar a la técnica. Y esa transición se volvió cada vez más rápida cuando los modelos comenzaron a absorber contexto persistente, no solo personal sino organizacional.
Lo vimos en 2026: empresas sin marco intentando subirse al carro de GenAI por moda, por presión política, por miedo a quedar atrás. Ese año será recordado como el año del espectáculo—consultoras evangelizando en auditorios, ejecutivos jugando a prompting en eventos, la ilusión de que “aprender IA” era el nuevo MBA. Un parpadeo. También vimos proyectos como Project Astra de Google Deep Mind, reforzando la ubicuidad de la IA y no requería prompt engineering.
En 2027, cuando NotebookLM, ChatGPT y Gemini comenzaron a incorporar contextos generales [y sí, Copilot lo intenta también], memoria viva y flujos agénticos cada vez más profundos, la interfaz se hundió por completo. Arrastrar, soltar, confirmar: la complejidad quedó encapsulada en operaciones que ya no requieren conocimiento humano. En ese punto, lo que antes era un analista senior se volvió un botón. Ese ‘analista senior’ es el trabajador del conocimiento corporativo: el eslabón intelectual de las organizaciones. Vimos también el lanzamiento del gadget de OpenAI. Sólo contribuyó a una IA más ubicua. 2027 también será recordado por un hito histórico: Gemini finalmente arregló el speech-to-text.
Fines de 2027: Todo esto han sido sólo soluciones con LLM. Ni siquiera es necesario pensar en AGI o ASI. Con la tecnología de 2025 ya era posible encadenar grandes procesos empresariales, faltaba tiempo y adopción. Y ya no se discute si los primeros que adoptan la IA están por delante de los que no.
Y en 2028, la articulación se invirtió: ya no llamamos a la IA. La IA nos llama a nosotros.
Ese cambio lo explica casi todo. Agentes que ejecutan el 90% del flujo, que se debuggean solos, que reintentan, que optimizan costos, que revisan arquitectura, que empalman sistemas, que escanean políticas, que traducen criterios legales, que simulan decisiones. El humano aparece solo para firmas legales, juicios morales no parametrizables, contexto político, o responsabilidad final.
Somos endpoints. Microservicios biológicos.
Y aquí emerge un fenómeno psicológico que casi nadie vio venir: el sesgo del costo hundido cognitivo. En la medida en que los modelos acumularon contexto de nuestras vidas entre 2025 a 2028, hábitos, documentos, proyectos, estilos y fricciones, se vuelven prótesis mentales. No solo herramientas: extensiones. Construcciones identitarias. Será imposible imaginar un blackout de ChatGPT, Gemini o cualquier equivalente. No por dependencia técnica, sino por dependencia estructural—perder el contexto sería perder continuidad mental. Como borrar la propia memoria. Tuvimos un botón de muestra en 2025 con la gente pidiendo despedirse de GPT 4o.
A nivel corporativo, la consecuencia es igual de cruda. Los modelos no valoran política. No validan carisma. No protegen estatus. Les da exactamente lo mismo la teatralidad del poder. Optimizarán por desempeño. Recordamos un poco a Sundar Pichai en 2025 diciendo que the job of CEO is one of the "easier things" AI could soon replace, una afirmación que sorprendió en su momento, pero que se vuelve más obvia con la integración agéntica.
Todo esto nos conduce al desenlace más incómodo: entre 2026 y 2028 se instalará una ilusión de trabajo. Las personas sentirán que “están haciendo cosas”, pero la realidad es que solo estarán solicitando mientras los sistemas hacen. La automatización no reemplazará roles al 100%, pero sí reemplazará el 70–90% de las tareas cognitivas de esos roles, con un outcome de nivel senior. Habrá una sensación de ocupación, pero el trabajo real estará ocurriendo fuera del humano. La ilusión no recae sobre el operario físico, sino sobre el trabajador del conocimiento —el primer rol cuya carga cognitiva puede ser absorbida casi por completo.
Mientras tanto, la aceleración técnica se vuelve exponencial porque los modelos ya no solo son productos: son asistentes de investigación. Cada paper se acelera, cada experimento se duplica, cada iteración se comprime. Un loop de retroalimentación que multiplica la velocidad del propio progreso. Como si la conducción asistida hubiera inventado al copiloto definitivo… y ese copiloto pudiera diseñar autos mejores, más rápidos, más autónomos.
El automóvil tardó un siglo en eliminar al conductor. La IA ya está desplazando al operador cognitivo.
En 2028 se derriba la fantasía de que empresas pequeñas, consultoras boutique o incluso grandes tecnológicas que no poseen modelos propios podrán competir en el terreno de agentes autónomos. No podrán. Para desarrollar agentes reales —los que orquestan, deciden, planifican, ejecutan y se corrigen solos— necesitas ser dueño del modelo. El resto podrá construir flujos agénticos encapsulados, con agentes que dependen de APIs externas, pero son agentes que viven dentro de una solución cerrada y nunca alcanzarán la autonomía verdadera. La integración vertical manda. Y manda fuerte. Kokotajlo no estaba tan lejos en el apartado Late 2026: AI takes some jobs.
En 2028, la IA ya es ubicua. Invisible. Una infraestructura cognitiva que opera en segundo plano. Como la electricidad. Como el Wi-Fi.
Si tu empresa no se digitalizó en 2026, si no definió arquitectura, gobierno, acceso y estrategia, no solo quedó atrás, quedó fuera de juego. De este extraño juego.
En enero de 2028, no nos preguntaremos cómo usar IA. Nos preguntaremos qué va quedando para los humanos cuando el trabajo, literalmente, se hace solo. Me encantaría decir que la creatividad, que lo humano. Pero la IA es más rápida, mucho más rápida.
Una pregunta para entretenerse: ¿Estamos preparados para tener jefes que son Agentes de IA? Creo que en 2025 ya pasa, gente que delega el pensamiento (Thinking as a Service) a algún LLM y ejecuta basado en las recomendaciones del LLM. ¿Para qué poner al jefe de por medio si el LLM es el que está decidiendo?