Aumentación para todos. Sí, para ti también.
Un fundamento a tener en cuenta a lo largo de la lectura: el pensamiento humano opera, en gran parte, sobre lenguaje. Y el canal consciente con el que procesamos lenguaje —leer, escuchar, escribir— es secuencial y de baja banda. No porque seamos “tontos”, sino porque tenemos atención y memoria de trabajo finitas.
Hay una palabrita que no estábamos acostumbrados a escuchar antes de la masificación de GenAI: aumentación. Se repite harto, pero se explica poco. Y si se explica, no se explica que tiene acepciones. Si no has escuchado "aumentación", es más posible que hayas escuchado "humanos aumentados". Más allá de los chistes que puedan venir a la cabeza de cada quien. Lo lógico es asumir que con GenAI el humano tiene más capacidades y/o el humano hace más cosas (es más productivo).
Veamos algunas corrientes
- Aumento del intelecto humano: El concepto nace por allá por 1960 (Engelbart/Licklider). Hablaban sobre aumentar la capacidad del humano para abordar problemas complejos mediante sistemas (herramientas + métodos + entrenamiento) que reestructuran el trabajo intelectual. No es sólo que haces tus tareas; también se cambia el proceso con el que se entiende, descompone, navega y se resuelve el problema. Suena precioso. Llama la atención que el tema nace cuando estaban apareciendo las primeras computadoras (Licklider).
- Aumento de la inteligencia: Esto está más asociado al mundo consultivo, siendo la empresa Gartner la responsable de popularizarlo como patrón de diseño. Acá se trata más de que se usa la GenAI para mejorar el desempeño cognitivo (tareas de aprendizaje, pero también de toma de decisiones). Va un poco en línea con la postura de que la GenAI no reemplaza, sino que asiste al humano. Acá es muy importante señalar que esta definición funciona mucho para el discurso comercial, se vende sin definición clara. Aumentación sirve para asistir, pero también sirve para usar al humano como interfaz de alguna automatización o flujo agéntico.
- Aumentación del humano (como disciplina): esta es más interesante, es una disciplina que busca mejorar la performance y habilidades humanas usando tecnologías near-body, principalmente. Están entre el humano y el entorno. Y se enfocan en restaurar, suplementar y/o exceder capacidades. (Si les soy honesto, yo siempre pienso en esto cuando dicen "aumentación" a secas). Esta definición se utiliza en el discurso comercial alternando con la definición de Gartner, simplemente porque GenAI puede entenderse como "extensión cognitiva".
- Aumentación de performance (como mejora de rendimiento) vs Aumentación de Competencia (como capacidad base): acá no hay una única escuela. Tenemos
- Aumentación de performance: haces más, o haces antes o haces con menos fricción porque GenAI ejecuta parte/s de la tarea. Si no se aclara: esto calza con el marketing de GenAI y con la definición de Gartner.
- Aumentación de competencia: tu capacidad base sube (mejor criterio, mejores marcos mentales, mejor escritura. Sin asistencia). Esto se alinea con Engelbart/Licklider cuando tenemos método, práctica y feedback.
Acá ya tenemos varias imprecisiones:
- Se produce confusión semántica: "aumentar" en cuanto a la capacidad, a "aumentar" en cuanto al output. GenAI apunta a vender output.
- Desplazamiento del locus: se atribuye a la persona un aumento que en realidad pertenece a los modelos y herramientas de GenAI. Varios hablan de apoyo, partner, copiloto. Pero, varios otros –con o sin saber– hacen creer que el humano ahora es mejor, porque está aumentado.
- Métrica tramposa: se mide éxito por el output (emails, tickets, slides) y no por calidad de juicio o aprendizaje.
Vamos un momento a 2028
Asumimos que hay un uso masificado de estas herramientas, porque ayudan constantemente y cada vez a aumentar el rendimiento. Porque sí, GenAI no aumenta automáticamente la capacidad biológica, sólo desplaza la carga cognitiva hacia afuera. No necesariamente nos aumentan el criterio con un enfoque simbiótico serio (Engelbart/Licklider). Si el criterio está completamente delegado a la herramienta, se requiere a la herramienta para usar el criterio (Insisto en Taas a escala).
Si podemos resumir los enfoques anteriores, sería algo como:
- Aumentación de performance: más velocidad, más output, más cobertura.
- Aumentación epistémica: mejor juicio, mejores decisiones, menos errores bajo incertidumbre.
- Aumentación de capacidad (competencia transferible): mejora el humano sin herramienta o con menos dependencia. Se requiere entrenamiento, se requiere fricción cognitiva.
¿Será que en 2028, lo que se vende como 2. y 3. será en realidad 1.?
Quizá yo soy muy porfiado. Quizá todos entienden 1. a la primera. Yo siempre pienso en 3., 2. en el mejor de los casos. Aunque siendo realista y entendiendo nuestro hardware (nuestro cerebro en la mayoría de los casos busca la máxima recompensa por el menor esfuerzo posible), es mucho más probable que siempre se trate de 1.
Una última vuelta. Y trayendo la linealidad del lenguaje:
- El modelo puede generar N variaciones en paralelo, en segundos, "las veces que se te antoje".
- Un humano en cambio consume linealmente, con atención limitada y memoria de trabajo limitada. (Y eso sin considerar ánimo ni necesidades biológicas).
- El modelo puede multiplicar opciones, pero el humano no puede multiplicar la asimilación de esas opciones al mismo ritmo.
Entonces, la línea delgada que siento que no queda clara en el discurso de la aumentación:
- Nuestra "inteligencia" no se incrementa by default.
- Nuestra "inteligencia" se extiende, tenemos cognición como prótesis: memoria externa, simulación, síntesis, etc.
- Esto puede elevar performance. Pero, también puede: producir ilusión de comprensión (en el peor de los casos: más errores "razonables", más decisiones mal justificadas). Un nuevo tipo de analfabetismo (gente capaz de producir respuestas plausibles sin poder defenderlas ni auditarlas). Degradar la metacognición (ya no sabes qué sabes).
Output altísimo. Comprensión frágil.
Si definimos "aumentación" como "pensar mejor", entonces el usuario tendría que incorporar el razonamiento del sistema como parte de su proceso de juicio. Pero como la interacción humana es secuencial y de baja banda, el resultado típico es la delegación (TaaS): el modelo decide el espacio de hipótesis y el humano valida superficialmente. Eso no es aumentación cognitiva; es Thinking as a Service con verificación limitada.
Este texto fue escrito 100% con GenAI (?)