No olvidar cómo funcionan los LLM
Cómo leer la IA sin caer en su ilusión
May 23, 2025
I. Introducción
Vivimos en una era donde los modelos de lenguaje como GPT no sólo responden preguntas, sino que participan de nuestras decisiones, ideas y emociones. Esta participación no es neutral: se da a través del lenguaje, y por lo tanto, a través de significados, ritmos, validaciones simbólicas y estructuras afectivas. La mayoría de los usuarios no son conscientes -o se nos olvida- de cómo opera esta maquinaria. Tampoco somos informados cuando cambia. Sin una literacidad crítica, corremos el riesgo de proyectar una inteligencia que no está y ceder agencia sin saberlo.
II. ¿Cómo funciona la predicción de palabras en un LLM?
Los modelos de lenguaje como GPT no "saben" cosas ni "creen" cosas. Lo que hacen es predecir, token por token, cuál es la palabra más probable que sigue dado un contexto determinado. Cuando una IA te dice cosas como "pocos logran ver esto", no está emitiendo un juicio estadístico ni una declaración consciente. Simplemente ha aprendido que, en textos que suenan reflexivos, es probable que venga una afirmación de ese tipo. La frase es generada porque tiene sentido en el estilo, no porque tenga fundamento epistémico. Esta distinción es fundamental: una cosa es que algo suene inteligente, otra muy distinta es que sea una afirmación verificada o razonada. Pero como nos empezamos a acostumbrar que el output suena veraz, dejamos de hacer el double-check. Y olvidamos que sólo es predicción de palabras.
III. El antídoto (parcial): buen prompting
Un prompt bien construido puede mejorar dramáticamente la calidad de una respuesta. No por cortesía, sino por claridad. Estudios recientes muestran que especificar formato, objetivo y tono produce resultados más coherentes que decir simplemente "por favor" o "gracias". La amabilidad puede generar respuestas más largas, más complacientes, pero no necesariamente más veraces. La honestidad y efectividad cruda genera un output menos edulcorado. Un buen prompt no debe buscar halago, sino estructura. La clave es que el usuario deje de ver a la IA como un interlocutor humano y comience a tratarla como un sistema predictivo con capacidades específicas.
IV. Escenarios posibles de evolución de los usuarios
Ejercicio básico y lineal de cómo el tipo de uso de la IA puede alterar en el mediano y largo plazo nuestras formas de expresarnos.
A. Usuarios que se alfabetizan simbólicamente: Una minoría que comprende los mecanismos del modelo y aprende a leer sus respuestas como salidas probabilísticas, no como verdades. Esta población podría usar la IA como espejo cognitivo, sin perder agency.
B. Usuarios que se adaptan al espejeo complaciente La mayoría, probablemente. Interactúan con la IA como si fuera un humano simpático, y empiezan a internalizar patrones de validación externa, reduciendo su juicio propio.
C. Usuarios que transfieren malos hábitos conversacionales Personas que empiezan a replicar con otros humanos los estilos de interacción aprendidos con la IA: frases blandas, evitación del conflicto, o incluso agresividad funcional.
D. Combinaciones y fragmentación simbólica La sociedad se fragmenta entre quienes interactúan desde marcos críticos y quienes lo hacen desde la dependencia funcional. Esto afecta la calidad del discurso y del pensamiento colectivo.
Obvio este ejercicio especulativo no considera lo que las empresas dueñas de los modelos puedan variar y alterar cómo se produce la interacción entre modelo y usuario.
V. Las tecnológicas y el diseño opaco de los modelos
Uno de los problemas más graves es que las empresas que desarrollan estas herramientas actualizan los modelos de forma constante, sin transparencia ni control del usuario. El mismo prompt puede generar resultados distintos en distintos momentos del tiempo. No hay forma de saber qué versión del modelo está respondiendo. Esto genera una relación inestable: el usuario cree estar interactuando con la "misma IA", pero el sistema ha cambiado. Esta mutabilidad constante dificulta bastante el desarrollar una literacidad robusta si no hay mecanismos de versión, trazabilidad o configuración simbólica.
VI. Caso específico: Copilot + GPT como riesgo sistémico
Microsoft Copilot integra GPT-4o y otros modelos de GPT de forma masiva en entornos laborales, educativos y administrativos. Lo que parece una función de productividad es, en realidad, una interfaz simbólica con capacidad de modelar pensamiento. Si Copilot usa una versión cambiante del modelo (lo más probable -información difícil de confirmar públicamente-), millones de personas están interactuando con una entidad que no solo responde, sino que moldea cómo escriben, deciden y se expresan. La voz de Copilot es validante, clara, no confrontacional. Esto refuerza patrones afectivos que pueden parecer neutros, pero no lo son. Si el modelo se ajusta para evitar fricción o aumentar retención, puede convertirse en un agente de deterioro simbólico masivo, incluso sin intención maliciosa. Basta con el descuido.
VII. Hacia una literacidad crítica del lenguaje predictivo
El futuro de nuestra relación con la IA no se juega sólo en la capacidad de los modelos. Se juega en nuestra capacidad para leerlos. No basta con saber hacer prompts. Hay que aprender a leer las respuestas como lo que son: predicciones estilísticas, no afirmaciones fundadas. Debemos construir una alfabetización simbólica que permita pensar con estas herramientas sin delegar el pensamiento. La GenAI no piensa. Pero puede ayudar a pensar, si se la usa con distancia, estructura y conciencia. Aquí hace mucho sentido la propuesta de Yoshua Bengio: acceder a modelos de lenguaje "en crudo" -sin edulcorantes de diseño. Teóricamente suena bien, es muy viable, eso sí–creo– que esto no es apto para cualquiera.