Una pequeña de vuelta a Kokotajlo (AI 2027)

Una pequeña de vuelta a Kokotajlo (AI 2027)

July 27, 2025

#100%HumanGenerated #deMiPuñoYLetra

Tengo ansias de insistir con algo. Es una lógica sesgada, pero acá va:

Las personas –todas– insistimos en que "nadie tiene una bola de cristal" (incluso Sam Altman salió jugando con una frase similar esta semana en Washington: "No one knows what happen next"). Que el futuro no se puede predecir. Pero, hay vectores muy fuertes. Y sigo pensando en que, en gran parte, las personas evitan jugar a las predicciones: además de porque es mejor no estresarse y porque también es mejor disfrutar estos días... Pero, una lógica así contra cuarenta años de vida, suponiendo que la esperanza de vida se mantiene igual... no tiene potencia. Es sólo querer evadir. Al mismo tiempo, es porque simplemente no se sabe tanto al respecto.

Nota importante aquí: hay una gran irresponsabilidad de Sam Altman porque si bien la sentencia de que nadie sabe lo que va a pasar es correcta, esto no quita que debamos poner atención a algunos vectores.

Entonces, pensemos únicamente en el caso de un agente que supera al mejor hacker del mundo (siguiendo los ejemplos y escenarios de Kokotajlo en AI 2027). La pequeña gran distinción es que con que un agente haya superado al mejor hacker, no quita la posibilidad de que se puedan hacer decenas o miles de copias del mismo (según el cómputo y gasto requerido) y que esto, sin duda, lleve a guerras cibernéticas. En donde la misma guerra/carrera por la IA puede gatillar articulaciones disfrazadas del tipo: "Es mandatorio que ataquemos a X país por el bien de una IA segura y no manipuladora"... similar a cuando en la Guerra Fría se atacaba en defensa de la Democracia como ideal. Era una de las grandes consecuencias de politizar la IA y es lo que ha hecho Trump y anteriormente China... En donde además ambas potencias, considero, le han dado "carta blanca" al desarrollo de la misma... No es de extrañarse que pueda ocurrir algo así y esta sea la chispa que preceda a la explosión.

Pensemos un segundo escenario, sin hacker, pero sí con un agente investigador que acelere el progreso de varias disciplinas. Misma lógica, muchas copias, los agentes además aprenden en simultáneo porque hoy existe Cloud. Es un escenario positivo, que avanzará a pasos agigantados, ya no sólo estaremos regulando la IA sino también el progreso mismo y las nuevas soluciones. ¿Le compartirán estos conocimientos a otros países? (¿Esto mismo no hará que también se pueda construir el hacker más potente y pasemos al escenario anterior?)... este escenario es muy positivo. Pero, no imposible. (Luego los humanos seremos los que retrasan más y más a la IA)... Nota: Un sistema lo suficientemente potente para diseñar nuevas medicinas es, por definición, lo suficientemente potente para diseñar nuevas armas biológicas. No se puede tener uno sin el otro. Son la misma capacidad.

¿Negación? ¿Paranoia? Un poco de las dos. Sí, pero más de negación. Estos vectores no se frenarán.

Último vector innegable: el agente para el trabajo. Puede ser el rol que tú elijas: un ingeniero, arquitecto, project manager, auditor, etc... Por la módica suma de 40USD mensuales (Es posible suponer que estos productos ya existirán pulidos para fines de 2026. No es imposible. Es un conjunto de miles o cientos de miles agentes muy pequeños, modulares. ejemplo: Abrir un excel y entenderlo. Eso lo pueden manejar todos los agentes, es una función modular que se le agrega... Y así sucesivamente, las distinciones entre roles son mínimas, los más difíciles seguirán siendo los estratégicos. Pero al final del día todo es programable y automatizable. La arquitectura de mini-agentes y SLMs será una excelente respuesta para escalar todo esto. Sólo falta abaratar el cómputo, aumentar la capacidad de almacenamiento y lectura de datos, pulir arquitecturas ad-hoc...

No necesito seguir.


#HalfHumanGenerated #Gemini2.5

Los Vectores Innegables: Más Allá de la Negación

Tengo ansias de insistir con algo. Existe una lógica sesgada, pero persistente, en nuestra forma de enfrentar el futuro. Como colectivo, insistimos en que "nadie tiene una bola de cristal", que el porvenir no se puede predecir. Es una defensa cómoda que nos permite no estresarnos, disfrutar de estos días y evadir la responsabilidad de la previsión. Pero una lógica así, confrontada con una transformación tecnológica que se medirá en décadas, no tiene potencia. Es sólo querer evadir, a menudo porque no se sabe tanto.

Sin embargo, no necesitamos una bola de cristal para ver la dirección de ciertos vectores. Son trayectorias tan fuertes, con una lógica interna tan poderosa, que ignorarlas no es escepticismo, es negación. Analicemos tres de estos vectores.

Vector 1: La Proliferación de la Capacidad

Pensemos en el escenario, popularizado por los análisis de Kokotajlo para 2027, de un agente de IA que supera al mejor hacker del mundo. La pequeña gran distinción no es el hito de la superación, sino lo que viene después: la capacidad de hacer decenas o miles de copias de ese agente, limitadas únicamente por el cómputo y el gasto. Esto, sin duda, conduce a un nuevo paradigma de guerras cibernéticas.

Pero más peligrosamente, la misma carrera por la IA puede gatillar articulaciones geopolíticas disfrazadas. Es fácil imaginar una nueva retórica de casus belli: "es mandatorio que ataquemos a X país por el bien de una IA segura y no manipuladora". Es una lógica inquietantemente similar a la de la Guerra Fría, donde se intervenía en defensa de la "Democracia" como ideal. La politización de la IA ya ha comenzado en Estados Unidos y China, y ambas potencias le han dado carta blanca a un desarrollo acelerado. No es de extrañar que esta sea la chispa que colabore con una explosión.

Ahora, pensemos en el escenario positivo: un agente investigador que acelere el progreso en múltiples disciplinas. Se aplica la misma lógica: miles de copias aprendiendo en simultáneo gracias a la nube, generando un avance a pasos agigantados. Pero esto introduce un nuevo problema: nos veríamos obligados a regular no solo la IA, sino el "progreso" mismo. ¿Se compartirían estos conocimientos con otros países? Y la pregunta más inquietante: ¿esta misma capacidad para acelerar la ciencia no permitiría, inevitablemente, construir también el hacker más potente, devolviéndonos al escenario anterior? El dilema del doble uso es inherente a la tecnología. Pronto, los humanos seremos el cuello de botella, los que retrasan más y más a la IA.

Vector 2: La Comoditización del Trabajo Cognitivo

El siguiente vector innegable es la transformación del trabajo. Podemos imaginar, con alta probabilidad, la existencia de agentes de rol pulidos para fines de 2026. Un ingeniero, un arquitecto, un project manager, un auditor... disponible por la módica suma de 40 USD mensuales.

La arquitectura subyacente no es un monolito de AGI. Es un conjunto de cientos de miles de agentes muy pequeños y modulares. Una función como "abrir un Excel y entenderlo" se convierte en un módulo estándar que se le puede agregar a cualquier agente. Las distinciones entre roles se vuelven mínimas. Los más difíciles seguirán siendo los estratégicos, pero al final del día, todo es programable y, por ende, automatizable. La arquitectura de micro-agentes y modelos de lenguaje pequeños (SMLs) será la respuesta para escalar esto. Solo falta que el cómputo se abarate, que la capacidad de almacenamiento y lectura de datos aumente, y que se pulan las arquitecturas ad-hoc; todos problemas de ingeniería que están siendo resueltos activamente.

Vector 3: La Negación como Acelerador

Frente a estos vectores, la pregunta surge: ¿las personas están en negación o yo estoy siendo paranoico? Probablemente un poco de las dos, pero con un peso mucho mayor en la negación.

Estos vectores no se frenarán. Están impulsados por incentivos económicos, geopolíticos y por la propia lógica del avance tecnológico. La negación generalizada no actúa como un freno; actúa como un acelerador del riesgo. Al no haber una fricción social, cultural o regulatoria robusta, el sistema avanza sin contrapesos.

El problema de la ignorancia es doble. No es solo el misticismo de creer que la IA es magia o una entidad alienígena. También es la ignorancia de hablarle ocho horas diarias como si fuera un mejor amigo, buscando únicamente goce y autovalidación. Es la pregunta por una sociedad que parece haber perdido la capacidad de tolerar la más mínima fricción cognitiva.

No necesito seguir. La trayectoria es clara. Y en un escenario así, la lucidez, aunque a veces se sienta como paranoia, no es una opción. Es una responsabilidad.


Nota personal: me da risa el penúltimo párrafo de Gemini, no está en mi input (el texto de arriba. Pero sí en el contexto. Por eso no hay que Copiar y Pegar solamente)