La cautela de Anthropic es una señal de alarma inquietante
Normalmente ahora estaría escribiendo sobre las ...
Normalmente ahora estaría escribiendo sobre las implicancias geopolíticas de la guerra con Irán, y estoy seguro de que volveré a hacerlo pronto. Pero quiero interrumpir ese tema para destacar un avance asombroso en inteligencia artificial —uno que llegó antes de lo esperado y que tendrá implicancias geopolíticas igual de profundas.
La empresa de inteligencia artificial Anthropic anunció el martes que lanzaba la nueva generación de su modelo de lenguaje de gran escala, llamado Claude Mythos Preview, aunque solo para un consorcio limitado de unas 40 compañías tecnológicas, entre ellas Google, Broadcom, Nvidia, Cisco, Palo Alto Networks, Apple, JPMorganChase, Amazon y Microsoft. Algunos de sus competidores forman parte de este grupo porque este nuevo modelo representa un “salto cualitativo” en desempeño, con implicancias tanto positivas como negativas para la ciberseguridad y la seguridad nacional de Estados Unidos.
La buena noticia es que Anthropic descubrió, durante el desarrollo de Claude Mythos, que la IA no solo podía escribir código con mayor facilidad y complejidad que cualquier modelo disponible hasta ahora, sino que, como consecuencia de esa capacidad, también podía encontrar vulnerabilidades en prácticamente todos los sistemas de software más utilizados del mundo con mayor facilidad que antes.
La mala noticia es que, si esta herramienta cae en manos de actores maliciosos, podrían hackear prácticamente todos los sistemas de software importantes del mundo, incluidos los desarrollados por las empresas que integran el consorcio.
No se trata de una maniobra publicitaria. En la antesala de este anuncio, representantes de las principales compañías tecnológicas mantuvieron conversaciones privadas con la administración Trump sobre las implicancias para la seguridad de Estados Unidos y de todos los países que utilizan estos sistemas ahora vulnerables, según me dijeron tecnólogos involucrados.
Y con razón. Como señaló Anthropic en un comunicado, solo en el último mes “Mythos Preview ya ha detectado miles de vulnerabilidades de alta gravedad, incluidas algunas en todos los sistemas operativos y navegadores web principales. Dado el ritmo de avance de la IA, no pasará mucho tiempo antes de que estas capacidades se propaguen, posiblemente más allá de actores comprometidos con un uso seguro. Las consecuencias —económicas, de seguridad pública y de seguridad nacional— podrían ser graves”.
Project Glasswing, el nombre del consorcio, es una iniciativa para trabajar con las empresas tecnológicas más grandes y confiables y con proveedores de infraestructura crítica, incluidos bancos, “para poner estas capacidades al servicio de la defensa”, añadió la compañía, y dar a estas firmas una ventaja inicial para detectar y corregir esas vulnerabilidades.
“No tenemos previsto hacer Claude Mythos Preview disponible de forma general, pero nuestro objetivo final es permitir que nuestros usuarios desplieguen modelos de clase Mythos de manera segura a gran escala —para ciberseguridad, pero también para los innumerables beneficios que estos modelos altamente capaces traerán—”, señaló Anthropic.
Mi traducción: ¡esto es impresionante! La inteligencia artificial superinteligente está llegando más rápido de lo previsto, al menos en este campo. Sabíamos que se estaba volviendo extraordinariamente buena para permitir que cualquiera, sin importar su nivel técnico, escriba código. Pero incluso Anthropic, según se informa, no anticipó que alcanzaría este nivel, tan rápido, para encontrar y explotar fallas en código existente.
Anthropic indicó que detectó vulnerabilidades críticas en todos los sistemas operativos y navegadores principales, muchos de los cuales operan redes eléctricas, sistemas de agua, reservas aéreas, redes comerciales, sistemas militares y hospitales en todo el mundo.
Si esta herramienta llegara a estar ampliamente disponible, significaría que la capacidad de hackear cualquier sistema de infraestructura importante —una tarea difícil y costosa que antes estaba prácticamente reservada a expertos del sector privado y organismos de inteligencia— quedaría al alcance de cualquier actor criminal, organización terrorista o país, por pequeño que sea.
No exagero cuando digo que incluso chicos podrían usarla por accidente. Padres, prepárense para algo así:
—“Mamá, ¿qué hiciste hoy después de la escuela?”—“Bueno, mamá, con mis amigos derribamos la red eléctrica. ¿Qué hay de cenar?”
Por eso Anthropic está entregando versiones cuidadosamente controladas a proveedores clave de software, para que puedan encontrar y corregir vulnerabilidades antes de que lo hagan los actores maliciosos —o sus propios hijos.
En momentos como este, prefiero profundizar con mi referente tecnológico, Craig Mundie, exdirector de investigación y estrategia de Microsoft, miembro del Consejo de Asesores en Ciencia y Tecnología del presidente Barack Obama y coautor, junto a Henry Kissinger y Eric Schmidt, del libro Genesis sobre inteligencia artificial.
A nuestro juicio, ningún país puede resolver este problema por sí solo. La solución —aunque sorprenda— debe comenzar con las dos superpotencias de la IA, Estados Unidos y China. Es urgente que aprendan a colaborar para evitar que actores maliciosos accedan a este nuevo nivel de capacidad cibernética.
Una herramienta tan poderosa los pondría a ambos en riesgo, expuestos a actores criminales internos y a grupos terroristas y otros adversarios externos. Podría convertirse fácilmente en una amenaza mayor para cada país que lo que representan entre sí.
De hecho, esto podría ser un punto de inflexión tan fundamental como lo fue la doctrina de destrucción mutua asegurada y la necesidad de la no proliferación nuclear. Estados Unidos y China necesitan trabajar juntos para protegerse —y proteger al resto del mundo— de humanos y sistemas autónomos que utilicen esta tecnología, más de lo que deben preocuparse por Rusia.
Es un tema tan urgente que debería ocupar un lugar central en la agenda de la próxima cumbre entre Trump y el presidente Xi Jinping en Pekín.
“Lo que antes era patrimonio de grandes países, grandes ejércitos, grandes empresas y grandes organizaciones criminales con grandes presupuestos —la capacidad de desarrollar operaciones sofisticadas de ciberataque— podría volverse accesible para actores pequeños”, explicó Mundie. “Lo que estamos a punto de ver no es otra cosa que la democratización total de las capacidades de ciberataque”.
Esto implica que los gobiernos responsables, en conjunto con las empresas que desarrollan estas herramientas de IA y la infraestructura de software, deben actuar con urgencia en tres frentes, sostiene Mundie.
En primer lugar, “controlar cuidadosamente la liberación de estos nuevos modelos superinteligentes y asegurarse de que solo lleguen a gobiernos y empresas responsables”.
Luego, utilizar el tiempo ganado para distribuir herramientas defensivas a los actores confiables, “de modo que el software que sostiene la infraestructura crítica pueda ser revisado y corregido antes de que los hackers obtengan inevitablemente estas herramientas”. (Por cierto, el costo de corregir vulnerabilidades en sistemas heredados —como los de las compañías telefónicas— será elevado. Y eso multiplicado por toda la base industrial.)
Por último, trabajar con China y otros países responsables para crear entornos seguros y protegidos dentro de las principales redes, tanto públicas como privadas, donde empresas y gobiernos confiables puedan trasladar sus servicios críticos y protegerlos frente a futuros ataques.
Será interesante ver qué recordará la historia del 7 de abril de 2026: si la postergación del bombardeo estadounidense sobre Irán o el lanzamiento controlado de Claude Mythos Preview por parte de Anthropic y sus aliados tecnológicos.