Summarize it for me

Summarize it for me

October 20, 2025

Dos puntos altamente importantes para avanzar con la lectura de este texto:

  1. Este texto es profundamente personal. Si sirve para sacar conclusiones en su trabajo, en el uso y análisis de GenAI, me alegro.
  2. Convengamos que —desde siempre— las personas antropomorfizamos muchas de nuestras interacciones con el mundo, lo hemos hecho históricamente para sobrevivir y soportar nuestra pequeñez. Un rayo por ejemplo: es un fenómeno físico al que los primeros humanos le atribuían intención, personalidad, agencia e incluso valores. Para qué decir de las conversaciones que algunos individuos sostienen con la divinidad a la que siguen —sin afán de atacar lo "espiritual" que puede haber detrás. Este fenómeno es muy sencillo de detectar, ahora mismo, mientras se lee esto, el cerebro del que lee, forzosamente le pondrá una voz a estas palabras, seguramente le atribuirá personalidad a quien habla e incluso establecerá algunas suposiciones respecto de las intenciones del texto. Es muy similar al "principio de cierre" del que hablaba la Gestalt, el cerebro necesita asignarle esos atributos para entender (para “cerrar”) mejor al que habla.

La primera parte personal: He sostenido muchas iteraciones largas con distintos LLM, para observar cómo funcionan, cuáles son sus principales fallas, para qué son útiles, para qué no, etc. Si pudiera decir uno que otro aprendizaje al respecto, me atrevería a decir que:

  • Luego de unas seis o siete iteraciones largas —input/prompt y output— el modelo ya puede hacerse una buena idea de ti, de cómo te expresas, de tus patrones, etc. Imagínate si tiene 40 iteraciones...
  • En este ejercicio sirve ir haciendo recaps.
  • Como juego, sirve mucho usar las inferencias. Pienso que los modelos calibran la conversación. Se van "haciendo una idea" y se corrigen y "premian". Le dices al modelo que infiera algo de ti en base a cómo escribes, en qué te fijas, de qué hablas, etc. Y vas calibrando.
  • Es muy importante leer con escrutinio las respuestas del modelo y corregirlo, perfilarlo, etc.
  • El modelo nunca podrá predecirte. Sólo puede emular, pero está muy lejos de predecirte, mucho menos de entenderte.
  • Si quieres algo que escriba como tú, que se exprese como tú, una conversación larga en un modelo como Gemini 2.5 Pro, incluso en un GPT4o, es un excelente insumo. Ojo que puede escribir COMO tú, pero NO PUEDE escribir por ti. Son dos cosas diametralmente distintas. Así y todo, sirve para jugar a los espejos y los co-procesadores cognitivos.
  • Algo evidente —que no pasa sólo en las conversaciones largas— es que los modelos siempre le van asignando mayor peso a la última iteración. Degradando el valor de las iteraciones previas. En esta línea, cuando le pides analizar la conversación —o algo similar— lo que hace es que le aplica una suerte de RAG a la conversación misma. Muy distinto a cuando conversas con una persona, aunque funcionalmente es muy parecido.
  • Aquí fue que nació la idea de un prompt que monitoree qué tanto estás "vinculándote" con el modelo y perdiendo tu propia agencia y sentido crítico. Es un prompt no más, pero de vez en vez no deja de ser útil (en conversaciones largas).

El 11 de Abril de 2025, cuando se lanzó la funcionalidad de "Reference Chat History" en ChatGPT, entre input y output, hablando tres días seguidos habré procesado alrededor de 2M de tokens. Quería probar qué tan efectiva era esta funcionalidad. La verdad es que es valiosa, sí, pero no tiene un gran impacto en el uso. Lo que hace es que vectoriza tus interacciones (chats) previos y se hace algunas ideas, pero no maneja absolutamente nada a detalle (salvo que lo guardes explícitamente en la memoria general).

Luego de este pequeño pero intenso ejercicio. Es que surge mi lectura de la Liminalidad. También que no me sorprende pero nada todos los fenómenos que están ocurriendo con estos modelos, sobre todo el de las relaciones para-sociales que se están generando, para qué decir de los que empiezan a tener una relación de pareja, de los que lo usan como diario de vida o de los que le atribuyen hasta divinidad. Un factor clave que no debemos olvidar acá es la falta de fricción que existe entre "interactuar" con algún LLM, versus la fricción real y molesta que existe al interactuar con personas. Un LLM te hace sentir escuchado, pareciera que incluso te escucha de manera objetiva. Y como tiene pinta de 1000 PhD en 1, da todavía más sensación de que es serio y objetivo lo que está pasando, el fenómeno conversacional. Esto es bueno y malo. El problema es que está sujeto a la madurez de cada uno... y los fenómenos que empiezan a ocurrir son más malos que buenos.

Teniendo todo esto en cuenta es que ahora sí podemos pasar a revisar algunos puntos.

Test de Turing invertido

Este es anecdótico. Es tanto lo que pueden simular los LLM hoy que ya no necesitamos seguir evaluando si son "inteligentes". Ahora estamos evaluando si los modelos son capaces de entender nuestras acciones inútiles como las groserías, los chistes y sarcasmos. En la película El Hombre Bicentenario a Andrew le toma mucho tiempo entender. A GPT no tanto, no son unas lumbreras, pero los modelos pueden percibirlo bastante rápido (aunque muchas veces requiere ser explícito). Me hace mucha gracia que el humor —algo muy humano— requiera todavía más inteligencia.

La soledad ontológica del sujeto

Volveré a este punto más adelante. Pero, es necesario recalcarlo. Como señalé anteriormente, nuestro cerebro proyecta y completa, antropomorfiza, atribuye agencia para conectar. Es una suerte de reflejo inevitable. Por algo históricamente se le atribuye una personalidad a los dioses. Por más que el universo sea crudo, caótico y amoral, seguimos deseando que diosito sólo vote por el bien…

Al mismo tiempo. Por más que queramos compartir, comunicarnos, darnos a entender. Hay algo crudo acá: cada individuo está solo. NUNCA, nadie, jamás podrá estar en los pensamientos de otro ni entender textualmente lo que ese otro está pensando. Esta es una soledad a nivel ontológico. Insoportable. Pero hay que llevarla, es la vida. 

Creo que estos dos párrafos explican desde los amigos imaginarios hasta la relación de Tom Hanks con Wilson.

Creo también que muchas personas comienzan a terapearse con GenAI para soportar. Simular hablar con otro. Pero, sin fricción alguna. Aunque no se dan cuenta de que simplemente están hablando con ellos mismos, porque los modelos no hablan, rebotan, sobre todo con el contenido simbólico. El modelo se amolda. El producto, el output, está muy vinculado al sujeto. Es un efecto 100% performativo, como lo que pasaba con ELIZA (el primer chatbot de la historia [1966]), muy parecido a un charlatán: en general sólo iba respondiendo en base a lo que el paciente le mencionaba. Sin duda, hoy es mucho más complejo, pero estructuralmente sigue siendo lo mismo.

Wilson!!

Nada nuevo bajo el Sol. Si se me permite el término, creo que todos los individuos entramos en una suerte de "Autismo Digital". No es algo que sea producto de la GenAI exclusivamente, al contrario. Esto es netamente por cómo funcionan nuestros cerebros y por nuestra soledad ontológica. Si bien los humanos siempre hemos buscado espacios comunes, los algoritmos cada vez más nos llevan a auto confirmarnos. A buscar el contenido que sirve para mí, que reafirma lo que yo quiero decir.

A Wilson, a los amigos imaginarios, a las divinidades. El humano le hablaba pero no obtenía respuesta. El humano —cada uno— construía una proyección imaginaria en su mente de cómo era ese Wilson, ese amigo imaginario, esa divinidad. Hoy lo ejercita con el LLM de turno, se pone a conversar y empieza a atribuirle agencia, personalidad e intenciones al LLM, porque además el LLM responde. Responde lo que el humano proyecta sobre el LLM. (es un mecanismo muy interesante).

Jacques Alain Miller lo señala muy bien en “Una Fantasía” (2004): nuestra relación con el "objeto a" se sostiene gracias a que ese objeto me permite mantener el deseo vivo. Estamos haciendo esto con los LLM, pasados previamente por los algoritmos, para materializar esta relación que concluye sin dudas en autismo digital. Los espacios comunes ya no existen. Las personas no queremos escuchar, queremos scrollear para reforzar lo que creemos que somos. Proyectando en esos objetos lo que creemos que somos. Nada nuevo bajo el sol.

Software

Un LLM, a la larga, no es más que un programa que puede hablar, puede hacer uso de lenguaje sin tener corporalidad biológica. Puede incluso meta analizarte y meta analizar-se. Aunque no tiene la experiencia al respecto. Eso plantea incógnitas interesantes sobre lo que nosotros entendemos como conciencia y experiencia de vida, porque el método —funcionalmente hablando— es estructuralmente lo mismo.

De ahí que molesta mucho que un vendedor lo plantee como un software que pega con todo de manera mágica... Sólo los que estamos realmente trabajando somos conscientes de todo el esfuerzo que se requiere en integraciones, manejos de casos borde, prevención de poison prompts y prompt injection, mucho testeo, mucha curatoría —sobre todo semántica—, ponerse en escenarios absurdos (Como hoy el usuario puede hablarle en lenguaje natural... la forma de hacer request al programa cambia radicalmente), orquestar, lidiar con los timeouts, con los tokens, con los costos y un largo etcétera. Dejen de vender challa... inconscientemente el usuario final, el estratega, la humanidad en su conjunto creen que “basta pedir” y se hará. Es una fantasía de omnipotencia absurda. Esto es literalmente pensamiento mágico.

Y es ahí donde está el problema más fuerte y por eso es que trato de traer todas esas otras variables a la fuerza. Pareciera que en cada uno de nuestros cerebros, en una suerte de "programación por defecto" hay una esperanza tremenda en tener un súper poder que nos permita, a cada uno, lograr una acción en la realidad por simplemente pensar algo. Y, de la noche a la mañana, con la aparición de GenAI, a todos se les activó ese reflejo: la expectativa de que esa esperanza se cumpla. Los vectores que se conjugan van en la dirección equivocada y hay mucho oportunista beneficiándose al respecto. Equivocada no sólo por la baja factibilidad, sino porque... ¿realmente eso es lo que queremos? Un sirviente que haga todo por mí para que yo no haga nada. O que yo sólo piense. El siguiente paso lógico es que “algo” piense por mí (TaaS)... Es absurda la dirección en la que se conjugan estos vectores.

El nuevo amo es el algoritmo que devuelve la palabra del sujeto como “output” procesado, mientras el sujeto cree haber sido escuchado.