La historia no se repite, tampoco rima.

La historia no se repite, tampoco rima.

May 1, 2025

Spoiler: Este texto no es una alarma. Es una invitación a observar sin filtros.

En conversaciones y charlas sobre inteligencia artificial y agentes, sigo escuchando dos ideas reconfortantes que, aunque bien intencionadas, son peligrosamente anacrónicas:

1. “La IA es sólo una herramienta.”

2. “Siempre que hay una disrupción tecnológica, la capacidad laboral se reubica.”

La primera intenta calmar: mientras controlemos la herramienta, todo estará bajo control. La segunda quiere tranquilizar: el progreso ha reemplazado oficios antes y las personas históricamente se han adaptado ¿Sólo por eso debemos suponer que la historia seguirá rimando?

La IA no es sólo una herramienta

Cuando una tecnología accede al lenguaje, deja de limitarse a ejecutar tareas: estructura sentido, mediatiza decisiones y participa simbólicamente en los procesos humanos. (Nos pasa con las películas y no nos va a pasar con la IA).

Eso la convierte en algo más que una herramienta. La convierte en un actor simbólico. El lenguaje ya no está anclado a lo biológico. Ya no necesitamos un cuerpo para producir sentido. Eso cambia radicalmente la interfaz entre lo humano y lo operativo.

¿Y la historia?

Las revoluciones industriales anteriores reemplazaron fuerza física, luego funciones repetitivas (lo más top hasta hace poco: Robot Process Automation, RPA). La IA generativa reemplazará tareas, sí. Pero también roles simbólicos. Y lo hará sin conciencia ni emoción, solo con estructura y coherencia.

El trabajo no se transforma como antes. Se desmaterializa. Redflag para los white collar boy (?)

Los roles que fueron construidos en los tiempos de escasez cognitiva ahora enfrentan competencia a escala, sin descanso y con menor costo marginal. Aprenden en segundos -si la instrucción y los datos son buenos. No es solo una amenaza económica. Es un desplazamiento simbólico. No se trata de pánico ni de glorificación tecnológica, se trata de entender que estamos en un punto de quiebre ontológico, no solamente técnico.

Decir que la IA es solo una herramienta es repetir el error de creer que el fuego fue solo para cocinar o que la imprenta fue solo para escribir más rápido. No es que hagamos más rápido lo que hacíamos antes. Es que lo que hacemos —y lo que somos— se redefine. Mientras seguimos debatiendo si nos va a quitar el trabajo, el lenguaje ya no nos pertenece sólo a nosotros. El reemplazo ya no es una cuestión de eficiencia. Es una cuestión de representación. Las palabras ya no requieren anclarse en lo biológico... Las palabras ya no requieren anclarse en lo biológico... Las palabras ya no requieren anclarse en lo biológico.

Esto no es para hoy ni para mañana. Pero tampoco es ciencia ficción.

Para entender el horizonte, comparto una estimación conservadora pero estructural:

1. Copiloto con memoria conversacional real (tipo Reference All Chats de GPT):

~1 año. Esto ya comenzó y se volverá estándar. Gemini, Copilot (GPT mediante), Claude, etc. adoptarán memorias referenciales sólidas como el nuevo mínimo de experiencia conversacional. La continuidad será esperada. El contexto, el “desde”.

2. Copiloto agéntico, multi-plataforma, interoperable (el Jarvis prometido):

~5–10 años. Requiere avances reales en:

  • Tener un nivel cómodo de cómputo distribuido.
  • Almacenamiento denso y contextual (no sólo texto: BLOBs, logs, flujos).
  • Gobernanza de múltiples sistemas.
  • Integración entre plataformas y ecosistemas aislados.
  • Orquestación agéntica sin fricción.
  • Confianza de delegar por parte de los humanos.

Veremos versiones intermedias: cadenas de agentes con acceso a plataformas, apps y flujos de trabajo, pero sin subjetividad ni comprensión semántica real.

3. "Ente simbólico artificial" / AGI real / "Sujeto operativo no-biológico":

~10-20 años (si es que ocurren disrupciones masivas). No es un tema de parámetros ni fine-tuning. Es un asunto de:

  • Representación del self.
  • Coherencia simbólica.
  • Operación en entornos ambiguos.

Hoy no hay arquitectura técnica ni filosófica capaz de sostener algo así. Y probablemente aún falte más de una década para siquiera acercarse, si es que ocurre.

Importante! esta proyección conservadora no incluye aspectos como: variables geopolíticas, entrenamiento pasivo de los humanos a los modelos, disrupciones tecnológicas importantes, problemas de lock-in entre sistemas, etc.

Mientras seguimos discutiendo si la IA nos va a quitar el trabajo, ya nos quitó otra cosa: el monopolio del sentido. Porque las palabras ya no requieren anclarse en lo biológico.