Coca-Cola mental
June 21, 2025
Afortunadamente y cada vez más veremos cómo el uso intensivo de LLM como GPT reduce el rendimiento cognitivo no porque el modelo sea defectuoso, sino porque nos volvemos adictos a delegar (esto es lo que vengo planteando en Thinking as a Service). Cada mejora en su capacidad disminuye nuestro umbral de resistencia crítica. Y esto apenas comienza.
Aunque los chats como GPT no son blancas palomas. Convengamos que tienen muchas características de diseño para aumentar el engagement, tiempo dedicado y atención por parte del usuario.
Veamos por qué debemos prepararnos para la atrofia cognitiva y por qué no es una broma. Pero, no hablo del simple déficit de “ahora pensaré menos porque ya no busco en Google”… esa es sólo la introducción.
1. No dejaremos de usar estos chat de LLMs
Rechazar estas herramientas no es una opción, el trabajo, el mundo lo están poniendo como una obligación. Y a la mayoría nos encantan, porque nos hacen ser más productivos. Imaginemos que viviré 80 años, si hoy tengo 35 años, proyectemos 45 años más de uso continuo —en un contexto de aceleración funcional (cada vez más exigencia de productividad), integración ubicua (está en todos lados) y dependencia simbólica. Esto no es una fase: es un nuevo plano de existencia cognitiva.
2. Delegación de agencia y erosión epistémica
GPT no sólo responde: absorbe autoridad. Su diseño favorece la oracularidad —respuestas seguras, sin titubeo, en lenguaje humano, escritas mil veces mejor de lo que yo tardaría horas—, y eso genera una cesión inconsciente de agencia. Delegamos porque podemos, y porque el modelo está hecho para facilitar esa cesión. El TaaS (Thinking as a Service) no sólo externaliza tareas: externaliza criterio.
El silogismo es sencillo: lo uso cada vez más, lo configuro cada vez más, le creo cada vez más, cada vez le tengo más confianza, cada vez ejecuto más lo que me dice el output (acá se delega la agencia), cada vez lo reviso menos, cada vez pienso menos. Eso en 45 años... ufff, ni pensar en los niños Gen-AI native.
3. Atributos divinos, funciones humanas
GPT encarna rasgos tradicionalmente asociados a lo divino:
- Ubicuidad (está en todas partes)
- Omnisciencia, aparente
- Infatigabilidad
- Capacidad de respuesta inmediata
La idolatría es inevitable, y con ella, una transferencia de confianza que es psicológica, emocional y simbólica. Casi como si nuestros genes estuvieran antropológicamente predispuestos a entregarse a "entidades" con estas características.
4. Copilotos + context awareness = Game over
He sido muy insistente en que una vez que todos los chat de LLM tengan contexto general y reference chat history, es decir, mucho más personalizados en uno mismo, ya no tendremos vuelta atrás. Y este será "el desde", en un futuro no se aceptará que el proveedor no tenga contexto general en su plan más básico.
Si le sumas el context-awareness real, se rompe el último bastión de autonomía. No estás ya consultando a una IA: estás interactuando con una estructura que conoce tu contexto mejor que tú mismo. No hay esfuerzo de pensamiento, no hay resistencia. Solo asistencia pasiva y gratificante. Acá el silogismo descrito en el punto 2 se materializa.
5. El conocimiento como commodity
En este escenario, el conocimiento pierde su valor como proceso. No hay tiempo, fricción ni esfuerzo. Todo está servido. Y como cualquier commodity, se degrada simbólicamente: pierde aura, pierde sacralidad, se vuelve prescindible en su forma original. Pensar por uno mismo se vuelve exótico.
6. Coca-cola mental
Me gusta pensar en este paralelismo, una extrapolación forzada pero que me ayuda mucho a entender. Creo que la Inteligencia Artificial Generativa genera contenido "artificial", históricamente hemos podido asociar la comida chatarra como "comida artificial", las bebidas de fantasía sobre todo. Tenemos muy claro que cuando consumimos mucha comida artificial, sufrimos grandes consecuencias en nuestra salud, gracias a este tipo de comidas tenemos síntomas a nivel global como la obesidad, diabetes, o similares (si bien no son la única causa, sí contribuyen mucho).
Antes el cerebro consumía conocimiento principalmente desde los libros: El libro se pensaba lento, se escribía lento y se leía lento. GPT se traga. No hay latencia reflexiva. Y en un entorno donde el engagement es el objetivo, lo que se pierde es lo más valioso: la fricción cognitiva (sí, usar el cerebro).
Si la comida artificial produce enfermedades... No sabemos aún qué tipo de enfermedades cognitivas produce esta hiperindustrialización del pensamiento. Así como productos artificiales contribuyeron fuertemente a la obesidad, diabetes o cáncer, la sobreexposición a pensamiento enlatado puede contribuir fuertemente a nuevas patologías mentales:
- Analfabetismo crítico funcional
- Dependencia cognitiva
- Fatiga decisional compensada por algoritmos
7. La idiotez estructural del sesgo humano
Hay una ilusión que tenemos todos y cada uno de nosotros: cada individuo cree que sólo a él no le van a afectar los males del mundo. Es lo mismo que permite que alguien coma mal toda su vida y diga “yo no me voy a enfermar”, tomamos Coca-Cola día tras día pensando que no va a pasar nada, algunos nos creemos astutos porque tomamos de vez en cuando o porque tomamos Zero o que disminuimos su efecto porque también bebemos agua. La misma lógica aplica a los chat de LLM: por más que se advierta sobre los riesgos de pensar menos, de delegar agencia, de depender de una interfaz que piensa mil veces mejor que uno mismo, cada usuario —tú incluido— se dice a sí mismo “a mí no me va a pasar. Mi pensamiento crítico seguirá activo, yo sí sigo friccionando cognitivamente”.
Esa ilusión de inmunidad es el verdadero vector del colapso. Y esta ilusión es la que tenemos que destruir.