Por esa razón, cuando las tensiones entre las superpotencias eran mucho más bajas de lo que son en la actualidad, una serie de presidentes intentaron negociar formas para generar más tiempo en la toma de decisiones nucleares en todos los bandos, para que nadie se precipitara al conflicto. Pero la IA generativa amenaza con llevar a los países en la dirección contraria, hacia una toma de decisiones más rápida.
La buena noticia es que lo más probable es que las principales potencias sean cuidadosas, porque saben cómo sería la respuesta de un adversario. Pero, hasta ahora, no hay reglas acordadas.
Anja Manuel, exfuncionaria del Departamento de Estado quien en la actualidad es directora del grupo consultor Rice, Hadley, Gates and Manuel, escribió recientemente que incluso si China y Rusia no están listas para las conversaciones sobre el control de armas vinculadas a la IA, las reuniones sobre el tema originarán debates sobre qué usos de la IA son percibidos como “inaceptables”.
Por supuesto, al Pentágono también le preocupará aceptar muchos límites.
“Luché muy duro para conseguir una política de que si tienes elementos autónomos de armas, necesitas una manera de apagarlos”, afirmó Danny Hillis, un científico informático pionero en la computación paralela usada para la inteligencia artificial. Hillis, quien también formó parte de la Junta de Asesoramiento en Innovación, afirmó que los funcionarios del Pentágono respondieron diciendo: “Si podemos apagarlos, el enemigo también puede apagarlos”.
Los mayores riesgos podrían provenir de actores individuales, terroristas, grupos de ransomware (secuestro de datos) o naciones más pequeñas con habilidades cibernéticas avanzadas —como Corea del Norte— que aprendan a clonar una versión más pequeña y menos restringida de ChatGPT. Podrían descubrir que el software de la IA generativa es perfecto para acelerar los ciberataques y atizar la desinformación.
Tom Burt, quien lidera las operaciones de confianza y seguridad en Microsoft, empresa que ha acelerado el uso de la nueva tecnología para renovar sus motores de búsqueda, dijo en un foro reciente en la Universidad George Washington que pensaba que los sistemas de inteligencia artificial ayudarían a quienes se defienden a detectar un comportamiento anormal con mayor rapidez de lo que ayudarían a los atacantes. Hay especialistas que no están de acuerdo. Sin embargo, Burt señaló que temía que la inteligencia artificial pudiera “potenciar” la difusión de desinformación dirigida.
Todo esto augura una era totalmente nueva en el control de armas.
Algunos expertos afirman que, como será imposible detener la propagación de ChatGPT y de sistemas de software parecidos, la mayor esperanza es restringir los chips especializados y cualquier otra energía computacional necesaria para impulsar esta tecnología. Sin duda, este será uno de los muchos planes de control de armas que se plantearán en los próximos años, en un momento en que al menos a las principales potencias nucleares parece no interesarles negociar sobre las armas viejas, mucho menos sobre las nuevas.
David E. Sanger es corresponsal para temas de seguridad estadounidenses. En su carrera de 38 años como reportero en The New York Times ha formado parte de tres equipos ganadores de premios Pulitzer, más recientemente en 2017 por Periodismo de Asuntos Internacionales. Su libro más reciente es The Perfect Weapon: War, Sabotage and Fear in the Cyber Age.