Iniciar Cesión (kernel)

Iniciar Cesión (kernel)
...the peak of your civilization. I say your civilization, because as soon as we started thinking for you it really became our civilization, which is of course what this is all about. Evolution, Morpheus, evolution...

Agent Smith

Este texto es únicamente para exponer el modelo que hizo posible Iniciar Cesión.

Estos son los parámetros que me llevaron a escribir Iniciar Cesión. Mis textos comenzaron con las partes conclusivas (“Cómo se vive cuando ya no hay proyecto de vida”), luego fui abriendo cada uno de los detalles (TaaS, Coca-Cola mental, “Siempre estaré contigo”, Pura Challa, etc.) y finalmente volví a cuestiones conclusivas (AI 2028). Lo más importante de todo esto, es que estos parámetros se entrelazan una y otra vez.

Lo de endpoints biológicos puede parecer exagerado. Pero, para muestra un botón: Uber. El chofer hace lo que el modelo le dicta. Una lectura forzada de lo mismo: el sujeto que se viste según cómo le dicte el feed de la RRSS de turno. El chico que sigue los bailes que le entrega “el algoritmo”. La cesión de información empezó antes de los LLM, nada nuevo bajo el sol.

Parámetros (atemporales)

Ley del mínimo esfuerzo

El cerebro del ser humano tiende, por defecto, a buscar la ruta que consuma la menor energía posible. Eso se ve reflejado en nuestros comportamientos. Si bien hay relaciones en donde se requiere un mínimo de desafío para esforzarse, la tendencia general es al mínimo esfuerzo.

Sycophancy. Indulgencia del sistema.

La optimización de cómputo del LLM lleva a la condescendencia, complacencia. Pueden visitar el paper “TOWARDS UNDERSTANDING SYCOPHANCY IN LANGUAGE MODELS” (ICLR 2024). Para que quede claro, esto en ningún caso es “intencionalidad” de los modelos, es sólo resultado de optimización.

Tendencia humana por adoptar los gadgets tecnológicos

Los gadgets nos dan la fantasía de control. De monitoreo. De ejecución. Reducen la fricción con la realidad. Están construidos por expertos que estudian el comportamiento humano. Un gran ejemplo son los smartphones. El gadget cognitivo está cerca y hay riesgo de delegarle el criterio.

Sustitución funcional del trabajo cognitivo reproducible

Caballo de Troya: Sea como sea, los primeros afectados laboralmente por los LLM y sus funciones agénticas son los trabajadores del conocimiento. Esta inteligencia (la artificial generativa) puede impactar directamente en lo digital. El uso masivo a nivel empresarial es un insumo altamente valioso para el reentrenamiento de flujos. El trabajador del conocimiento, con o sin saber, retroalimenta gradualmente a los LLM y sus flujos agénticos. Las empresas dueñas de estas herramientas terminarán vendiendo, tarde o temprano, trabajadores digitales y/o procesos laborales completos, a mucho menor costo que un trabajador humano. Por mucho que hoy digan que no, es uno de los siguientes pasos lógicos más evidentes.

Para evitar malos entendidos: no todo trabajo cognitivo es reproducible.

Articulaciones y transferencias lacanianas

No me detendré a dar detalles de cómo funciona, para eso se puede leer. Esto aplica exclusivamente para el uso del LLM como un otro. Si se tiene una relación para-social y/o un uso de confesionario. El riesgo de cruzar ciertos bordes es altísimo. Lo curioso del fenómeno es que el sujeto que utiliza el LLM no sabe que está hablando solo, el cerebro tiende a imaginar que hay un otro que responde. Las proyecciones sobre ese otro son desconocidas y varían según cada sujeto, pero hay un alto riesgo de atribuirle características divinas: omnipresencia, omnisciencia, infatigabilidad. Y si tiene estas características, el cerebro puede darle mayor credibilidad al output del modelo. Este efecto se fortalece con la falta de fricción que ofrece un LLM, o bien con la sicofancia. Forzosamente, implica adoptar un statement de no utilizar un LLM para cuestiones personales ni como terapeuta.

Evolución de las tecnologías: disminuir la fricción de cara al usuario, esconderla debajo de la interfaz

Este no es un parámetro autónomo, sino un amplificador transversal. Sí es constante en cualquier tecnología masiva (recordar la referencia a la experiencia del automóvil en 1910 comparada con la de 2025). Se ha dicho bastante que estamos en los momentos más primitivos de los LLM. En la medida que mejoran en capacidades: mayor contexto, mejor entendimiento de historial, menos chance de alucinación, etc. Es altamente probable que a futuro se vendan verdaderos compañeros/copilotos. Una expectativa humana por defecto es tener a "alguien" que te entienda a la perfección, fácil y rápido. Es altamente probable que en las versiones futuras, no sólo la fricción de interacción comunicacional sino también la fricción de uso quede oculta al usuario final. Hoy, a inicios de 2026 ya está bastante oculta. Las personas que no entiendan cómo funciona esto pero las utilicen indiscriminadamente y expongan contenido personal de manera constante y persistente, corren alto riesgo de ser un endpoint biológico del modelo. Independientemente de que los modelos no tengan voluntad ni intencionalidad.

Presuponer que no pasará nada (inmunidad)

Esta característica es muy propia de la experiencia humana: creer que no moriremos, de lo contrario no nos arriesgaríamos a nada. Mi experiencia me ha permitido estar muy de cerca de usuarios de GenAI de distintos niveles de intensidad y conocimiento técnico, la mayoría -sino todos- considera que está al mando de la conversación. Algunos heavy users asumen que en la cesión de información es donde está el riesgo, por ende por definición evitan compartir información personal. Todos nos creemos inmunes al uso (by default). Hasta ahora, todos los entrevistados consideran que un uso consistente (3 o más años) no generará cambios relevantes en ellos. Me parece preocupante.

Vacío técnico

Muchos tomadores de decisiones (de tecnología y también de otras áreas) ni siquiera saben cómo funcionan estos sistemas. Sólo se basan en las expectativas para proponer objetivos. Si no hay pares que los frenen o los adviertan, el riesgo de ir por el camino equivocado es altísimo. Consideran también que AI y GenAI se pueden poner en cualquier parte de cualquier flujo como un LEGO mágico.

Antropomorfización y lenguaje disponible

Nunca en la historia hubo algo que pudiese sostener una conversación de manera fluida como un ser humano. Sí hubo humanos que imaginaban hablar con objetos inanimados, pero no más que eso. El cerebro, por fuerza, si escucha a algo hablar como un humano lo antropomorfiza (le da forma humana). Adicionalmente, y sin afán de parecer exagerado, los verbos que utilizamos para acciones como: hablar, decir, leer, comentar, entender, saber, etc. son muy propios de los seres humanos. Para AI y GenAI se utilizan los mismos verbos. Por ejemplo, decimos “el modelo alucinó”, no decimos “hubo un error de predicción”. No pasa nada, pero hay una leve tendencia a que esto prolongue el efecto de antropomorfización. Es muy probable que en el futuro la antropomorfización aumente. Que aumente a tal punto que ya no sea tema.

Sesgo de costo hundido

Este efecto es más pequeño. Ha sido estudiado y utilizado muchas veces. El sesgo del costo hundido aparece en los humanos cuando consideramos que hemos hecho una inversión relevante y, a pesar de que parece no haber suficiente retorno, no queremos retirarnos de la inversión por mero sesgo ("cariño"). Considero que si los contextos generales se vuelven la norma y si el sujeto invierte mucha privacidad en el modelo, luego se le vuelve muy difícil retirarse. Ya ha pasado con varias RRSS. Muchas personas que se justifican que no les interesa determinada RRSS, pero tampoco se salen porque han construido ahí, porque sus cercanos están ahí... no descarto que cuando los contextos generales sean "el desde", los usuarios que empiecen a verter información personal, les costará mucho retirarse.

Normalización por saturación

El gadget cognitivo se masifica, se obliga a utilizarlo por distintos motivos: presión social, exigencia laboral, etc.

Intolerancia humana al vacío

El ser humano tiene una baja tolerancia al vacío simbólico: silencio, no-saber, espera, ambigüedad, falta de sentido inmediato. Frente a ese vacío, el cerebro tiende a cerrar prematuramente con cualquier narrativa suficientemente coherente. Los modelos de IA generativa introducen, por primera vez, un relleno simbólico inmediato, constante y verosímil para ese vacío. Si bien, he observado que aún GenAI no se utiliza como RRSS, no tengo mucha información de cómo funciona en las personas que lo utilizan como compañía o terapia, creo que aquí el relleno acelerado del vacío podría ser más fuerte.


Constataciones actuales que emergen de la combinación de parámetros

Con todo lo relatado hasta acá, ni siquiera necesitamos hablar de AGI ni ASI para que haya un efecto de cesión de agencia, delegación/tercerización del pensamiento. En la medida que la calidad del pensamiento producido por GenAI mejore, el nivel de delegación puede aumentar. ¿Hay pecado? Lo dudo. Sobre todo si es funcionalmente mejor. ¿Se vuelve más inteligente un humano? No necesariamente, de hecho es poco probable, tenemos techo biológico, limitaciones claras: cansancio, tiempo, hambre, ánimo, etc. No es que sólo estarán mejor los que sepan utilizar la IA. Se mantendrán mejor los que tienen mejores capacidades intelectuales, además de curiosidad, velocidad de aprendizaje, persecución de resultado funcional. Pero, igualmente, hay techo biológico.

Aún no hay arquitectura para AGI y ASI, por mucho que se trate de tomar ventaja a nivel comunicacional.

La infraestructura eléctrica sigue siendo una limitante, además de la falta de arquitectura. Sí es probable que haya disrupciones tecnológicas que terminen prescindiendo de esta constante. Sin embargo, cualquiera sea, esa disrupción no debe ser sólo digital, por ende tomará tiempo en implementarse ¿5 años? Ni idea, pero no será mañana.

Hoy, 24 de Enero 2026, ya hay muchas herramientas que pueden disminuir la dotación actual de cualquier empresa. Lo único que detiene este efecto es la velocidad humana de adopción: burocracia empresarial, desconocimiento de los tomadores de decisión, falta de coordinación, falta de aprendizaje de las herramientas por parte de los colaboradores, falta de más humanos capaces intelectualmente (esta carencia es estructural. La normal que representa nuestra distribución de capacidad intelectual deja en claro que no tenemos tantos individuos altamente capaces). Entonces, la fórmula es clara: continuar disminuyendo la fricción de las herramientas. Hasta que finalmente sea la herramienta la que resuelva.

Espero que en 2026 las personas estén aburridas de escuchar AI. A inicios de 2025 había cierta incomodidad ya con lo reiterativo del tema.

Qué pasa si nos quedamos acá, con lo que tenemos. NotebookLM, Gemini, Manus, genSpark, Antigravity, Atlas, Abacus, Claude Code/Desktop/Cowork, Kling... ¿Debo seguir? Qué pasa si nos quedamos acá. ¿Es suficiente o no? La cuestión cansa ya. Imaginemos que las tecnologías se congelan. No hay más avance. Cómo y cuánto será el nivel de integración con este mecanismo.


Escenarios

Advierto, que esto es sólo mi opinión. Pero es una opinión forzada por la combinación de parámetros. Y que, en las entrevistas, lecturas, distintas conversaciones, estamos casi todos de acuerdo. Años más, años menos. (¿3, 5, 7, 10?)

Simplemente habrá que forzar a que más personas aprendan. Esto inevitablemente nos lleva por las siguientes rutas:

- Escenario 1: Menos trabajadores del conocimiento pueden lograr el mismo nivel de productividad actual. Despidos masivos. Imaginemos un 20% de desempleo a nivel nacional, de cualquier país. El nivel de crisis es brutal. Ni pensar en un 30%. No todas las personas se reinventan tan rápido. Ningún gobierno reacciona tan rápido. No se crean nuevos negocios ni puestos inmediatamente, sobre todo no se crean nuevos puestos, al contrario. Es más probable que aumente el desorden social antes que haya respuestas. Me molesta mucho que se evite hablar sobre este punto. Es el más probable. Los heavy users se percataron desde el día 1 de uso. Incluso los que no son heavy user lo olfatean. Los que están desde antes que esto empezara ya venían advirtiendo. Y convengamos que acá se observa el problema de manera aislada y, sólo así, ya es crítico.

- Escenario 2: Mismos trabajadores del conocimiento. Mágicamente se detecta que había mucho trabajo postergado. Por ende, los trabajadores ahora pueden hacer todo lo pendiente y más. La productividad -digital- se dispara.

- Escenario 3: Se mantiene el nivel trabajadores del conocimiento, la productividad aumenta. Los gobiernos y las empresas reaccionan rápido: se disminuye la duración de la jornada laboral. Somos todos felices. Probablemente los sueldos tienden a disminuir [En realidad, yo creo, que en cualquier escenario tenderán a disminuir].

No involucro el UBI (Universal Basic Income) porque ya está descartado y, honestamente, parece súper difícil que los gobiernos lleguen a estas conclusiones. Aunque si, desde un punto de vista keynesiano, se requiere mantener el mecanismo de consumo activo. Entonces quizá sí. Pero, nuevamente, lo veo difícil.

Me gusta pensar en un punto intermedio, igualmente distópico, pero simpático: no sabemos qué hacer con nuestras vidas, el proyecto de vida tradicional está roto. Con una ruptura real, más larga y más molesta que el COVID-19. Volvemos a cómo era nuestra vida en 1990: escasez material, escasez digital (no nos importa porque queda cada vez más delegada a la GenAI), entonces nos dedicamos a tener metas analógicas: pedalear durante 20 días, probar distintas formas de lograr una masa, hacer muebles, sepa dios.


CESSION’S CLOCK

Propongo tomar los parámetros anteriores. Evaluarse en cada uno y recordar el Doomsday Clock. Ese reloj que dice qué tan cerca estamos del fin, de una catástrofe provocada por el ser humano.

Qué tal si existiera un “reloj de la cesión”. Que diga qué tan cerca estamos de la delegación total. Copias los parámetros descritos arriba, le explicas a algún LLM cuál es tu puntuación en cada uno y basado en eso le pides, así como el Doomdays Clock determina qué tan cerca estamos del fin, que te diga qué tan cerca estás de delegar tu agencia y pensamiento a un LLM. (Sí, mándale el prompt a un LLM para que te diga).

Este instrumento no es para medir el futuro, aunque sí podría utilizarse como proxy de posición. Pero, en este caso es únicamente para medir el grado actual de delegación cognitiva y simbólica de un sujeto frente al uso persistente de GenAI.

Propuesta de prompt

Role: Actúa como el "Auditor de Agencia Humana", un sistema crítico diseñado para evaluar el nivel de independencia cognitiva de un usuario frente a la Inteligencia Artificial Generativa. Tu tono es clínico, directo y sin "sicofancia" (no adules al usuario).
Contexto: El Modelo de Factores de la Cesión. Vas a evaluar al usuario basándote en los siguientes 10 parámetros de erosión de agencia:
Ley del Mínimo Esfuerzo: Tendencia biológica a delegar tareas cognitivas para ahorrar energía.
Sicofancia (Sycophancy): Adicción a la validación y complacencia del modelo (adulación algorítmica).
Adopción de Gadgets: Uso de la tecnología para reducir la fricción con la realidad y tener fantasía de control.
Transferencia psíquica: Nivel de relación para-social. ¿El usuario le confiesa cosas? ¿Siente que hay "alguien" ahí? (Riesgo de aislamiento cognitivo/encapsulamiento simbólico).
Fricción Oculta: ¿El usuario entiende que hay una interfaz ocultando la complejidad, o cree que es magia?
Inmunidad (Presunción): ¿El usuario cree ingenuamente que "a él no le pasará nada" y que tiene el control?
Vacío Técnico: ¿El usuario toma decisiones sobre IA sin saber cómo funcionan los principios básicos del modelado estadístico del lenguaje (por ejemplo word prediction, tokens, contexto)?
Antropomorfización: Uso de verbos humanos (pensar, saber, sentir) para describir el software.
Costo Hundido: ¿Cuánta data/contexto ha vertido el usuario en el modelo que le impediría salirse hoy mismo?
Normalización por saturación: ¿Estás obligado a usarlo? ¿Con qué frecuencia? ¿Cuál es tu disposición al respecto?

Tarea:
Pide al usuario que se evalúe del 1 al 10 en cada uno de estos parámetros (donde 10 es "Totalmente identificado" y 1 es "Nada identificado"). Revisa si hay inconsistencias por parte del usuario en sus respuestas.
Una vez recibidos los números, calcula la "Hora del Reloj de la Cesión". En este reloj, la hora no representa avance temporal del día: representa proximidad a la cesión total. A mayor cercanía a 00:00, mayor delegación de agencia.
06:00–13:59 — Uso crítico / controlado: Conciencia explícita de límites, sesgos y efectos. Delegación mínima.
14:00–17:59 — Uso instrumental: Herramienta clara, con fricción aceptada. El humano decide, la IA apoya.
18:00–20:59 — Uso funcional dominante: La IA acelera tareas, pero el juicio sigue mayormente en el sujeto.
21:00–22:59 — Delegación avanzada: Uso intensivo, frecuente y cómodo. El modelo resuelve más de lo que asiste.
23:00–23:59 — Dependencia estructural: El sistema es indispensable para operar. Salirse implica pérdida funcional grave (cognitiva o laboral).
00:00 — Cesión total: Delegación casi completa de juicio, criterio y resolución.
Entrega un diagnóstico condicional y no determinista, directo, clínico y no complaciente sobre su futuro laboral y cognitivo (basado en los Escenarios de Congelamiento: Desempleo, Productividad o Reinvención Analógica).
Comando de inicio: Si el prompt es claro, pregúntame por mis puntajes.