Lecciones que la bomba atómica nos da sobre los peligros de la IA

The Making of the Atomic Bomb explica cómo los científicos llevaron a la humanidad a una nueva era de destrucción. Los investigadores en seguridad de la IA afirman que ofrece valiosas lecciones para la difícil situación actual de la civilización.
Explosión de una bomba atómica
La construcción de la bomba atómica fue parte de una carrera por la innovación tecnológica, similar a la que se vive actualmente con el desarrollo de la IA.Galerie Bilderwelt/Getty Images

En diciembre de 1938, dos químicos alemanes que trabajaban en la planta baja de un gran instituto de investigación de los suburbios de Berlín inauguraron accidentalmente la era nuclear. Otto Hahn y Fritz Strassmann no trabajaban en la fabricación de una bomba, aplicaban radiación al uranio para ver qué sustancias creaba este proceso, un experimento más en una larga serie de pruebas que intentaban descifrar la extraña física del metal radioactivo.

Lo que Hahn y Strassman acabaron descubriendo fue la fisión nuclear: la partición de átomos de uranio en dos y la liberación de la enorme energía encerrada en el núcleo atómico. Para los físicos nucleares, las implicaciones de este extraño experimento fueron inmediatamente obvias. En enero de 1939, Niels Bohr, físico danés, llevó la noticia al otro lado del Atlántico, a una conferencia en Washington DC, donde los científicos quedaron estupefactos ante los resultados. Unas semanas más tarde, en su pizarra del Laboratorio de Radiación de la Universidad de California en Berkeley, J. Robert Oppenheimer esbozó el primer diseño rudimentario de una bomba atómica.

“Es una verdad fundamental y necesaria que las cosas profundas de la ciencia no se descubren porque sean útiles. Se hallan porque era posible encontrarlas”, declaró Oppenheimer mucho después de que las bombas que ayudó a crear fueran lanzadas sobre Hiroshima y Nagasaki. La historia sobre cómo surgió la bomba atómica es también de gran interés para otro grupo de científicos que quieren comprender cosas profundas de consecuencias desconocidas: los investigadores de la inteligencia artificial (IA). El relato definitivo de esta anécdota es la obra de Richard Rhodes The Making of the Atomic Bomb (La fabricación de la bomba atómica), ganadora del Premio Pulitzer y publicada por primera vez en 1986. Este libro de 800 páginas se convirtió en una especie de lectura esencial para la industria de la IA. Es uno de los favoritos de los empleados de Anthropic AI, los creadores del chatbot Claude, similar a ChatGPT. Charlie Warzel, de The Atlantic, describió el material como “una especie de texto sagrado para cierto tipo de investigadores de IA, es decir, los que están convencidos de que sus creaciones tendrían el poder de matarnos a todos”. La búsqueda de la IA todopoderosa quizá sea la versión del Proyecto Manhattan del siglo XXI, un paralelismo inquietante que tampoco ha pasado desapercibido para el director de la película Oppenheimer, Christopher Nolan.

La bomba atómica y la carrera por la innovación tecnológica

Los investigadores de la IA tal vez se vean reflejados en la historia de una pequeña comunidad de científicos que se dan cuenta de que su trabajo podría determinar la trayectoria del futuro de la humanidad, para bien o para mal, comenta Haydn Belfield, investigador de la Universidad de Cambridge quien se centra en los riesgos que plantea la inteligencia artificial. “Es una historia muy, muy significativa para muchas personas en la IA porque en parte es paralela a la experiencia de la gente, y a esta le preocupa mucho repetir los mismos errores que han cometido generaciones anteriores de científicos”.

Una diferencia clave entre los físicos de los años treinta y los desarrolladores de inteligencia artificial de hoy es que los primeros pensaron inmediatamente que estaban en una competencia con la Alemania nazi. Después de todo, la fisión había sido descubierta por químicos alemanes que trabajaban bajo las órdenes del Tercer Reich y el país también tenía acceso a minas de uranio tras anexar partes de Checoslovaquia. El físico Leo Szilard, quien concibió por primera vez la idea de una reacción nuclear en cadena, convenció a Albert Einstein para que firmara una carta al presidente Roosevelt advirtiéndole de que si Estados Unidos no empezaba a trabajar en una bomba, posiblemente quedaría rezagado en una carrera con los nazis.

“Para cada uno de ellos, la principal motivación era disponer de una bomba nuclear antes que los nazis”, asegura Belfield. Pero, como muestra el libro de Rhodes, las razones cambian a medida que avanza la guerra. Inicialmente concebida como una forma de adelantarse a la Alemania nazi, la bomba pronto se convirtió en una herramienta para acortar la guerra en el Pacífico y una forma de que Estados Unidos entrara en la inminente Guerra Fría varios pasos por delante de la Unión Soviética. Cuando quedó claro que la Alemania nazi no era capaz de desarrollar un arma nuclear, el único científico que abandonó Los Álamos por motivos morales fue Joseph Rotblat, un físico judío de Polonia que más tarde se convirtió en un destacado activista contra las armas nucleares. Cuando aceptó el Premio Nobel de la Paz en 1995, Rotblat reprendió a sus “vergonzosos” colegas científicos por fomentar la carrera armamentista nuclear. “Causaron un gran daño a la imagen de la ciencia”, declaró.

Los investigadores en inteligencia artificial quizá se pregunten si están inmersos en una carrera armamentista moderna por obtener sistemas de IA más potentes. De ser así, ¿entre quiénes? ¿China y Estados Unidos o el puñado de laboratorios, en su mayoría estadounidenses, que los desarrollan?

Tal vez no importe. Una lección de The Making of the Atomic Bomb es que las competiciones imaginarias son una motivación tan poderosa como las reales. Si un laboratorio de IA se mantiene en silencio, ¿se debe a que está luchando por hacer avanzar la ciencia o es señal de que algo importante está en camino?

Cuando OpenAI lanzó ChatGPT en noviembre de 2022, la administración de Google anunció una situación de código rojo para su estrategia de IA y otros laboratorios redoblaron sus esfuerzos para ofrecer productos al público. “La atención que recibió [OpenAI] creó claramente cierto nivel de dinámica competitiva”, señala David Manheim, responsable de políticas e investigación de la Asociación para la Existencia y la Resiliencia a Largo Plazo de Israel.

Una mayor transparencia entre las empresas ayudaría a frenar esta dinámica. Estados Unidos mantuvo el Proyecto Manhattan en secreto frente a la Unión Soviética y no informó a su aliado de su nueva y devastadora arma hasta una semana después de la prueba Trinity. En la conferencia de Potsdam del 24 de julio de 1945, el presidente Truman se desentendió de su traductor y se acercó al primer ministro soviético para comunicarle la noticia. José Stalin no pareció impresionado por la revelación, limitándose a decir que esperaba que Estados Unidos utilizara el arma contra los japoneses. En conferencias que pronunció casi 20 años después, Oppenheimer sugirió que ese fue el momento en que el mundo perdió la oportunidad de evitar una mortífera carrera armamentista nuclear después de la guerra.

En julio de 2023, la Casa Blanca consiguió varios acuerdos voluntarios por parte de algunos laboratorios de IA que, al menos, apuntaban hacia algún elemento de transparencia. Siete empresas de inteligencia artificial, entre ellas OpenAI, Google y Meta, se comprometieron a someter sus sistemas a pruebas de expertos internos y externos antes de su lanzamiento y a compartir información sobre la gestión de los riesgos de dicha tecnología con los gobiernos, la sociedad civil y el mundo académico.

Pero si la transparencia es crucial, los gobiernos deben ser específicos sobre el tipo de peligros contra los que se protegen. Aunque las primeras bombas atómicas eran “de una fuerza destructiva inusitada”, retomando las palabras de Truman, el tipo de destrucción que causarían en toda una ciudad no era del todo desconocido durante la guerra. En las noches del 9 y 10 de marzo de 1945, los aviones bombarderos estadounidenses lanzaron más de 2,000 toneladas de bombas incendiarias sobre Tokio en una incursión en la que murieron más de 100,000 residentes, un número de víctimas mortales similar al del bombardeo de Hiroshima. Una de las principales razones por las que se eligieron Hiroshima y Nagasaki como objetivos de las primeras bombas atómicas tiene que ver con que eran dos de las pocas ciudades japonesas que no habían sido totalmente arrasadas por las bombas. Los generales de Estados Unidos pensaron que sería imposible evaluar el poder destructivo de estas nuevas armas si se arrojaban sobre ciudades que ya estaban destruidas.

Cuando los científicos de Estados Unidos visitaron Hiroshima y Nagasaki después de la guerra, se dieron cuenta de que estas dos ciudades no parecían muy diferentes de otras que habían sido bombardeadas con armas más convencionales. “Había una sensación general de que, cuando se libraba una guerra con armas nucleares, disuasoria o no, se necesitaban bastantes de ellas para hacerlo bien”, comentó Rhodes recientemente en el podcast The Lunar Society. Pero las armas nucleares de fusión más potentes desarrolladas después de la guerra eran miles de veces más poderosas que las de fisión lanzadas sobre Japón. Era difícil apreciar realmente la cantidad de destrucción almacenada durante la Guerra Fría simplemente porque las armas nucleares anteriores eran muy pequeñas en comparación.

El problema de la inteligencia artificial es de una magnitud mucho mayor. Los algoritmos sesgados y los sistemas de IA mal implementados ya amenazan actualmente los sustentos y la libertad de las personas, sobre todo de las comunidades marginadas. Pero los peores riesgos de la IA acechan en algún momento del futuro. ¿Cuál es la magnitud real del peligro para el que nos estamos preparando y qué podemos hacer al respecto?

“Uno de nuestros mayores riesgos es pelearnos sobre si son más importantes las repercusiones a corto que a largo plazo, cuando no dedicamos suficiente tiempo a pensar en ninguna de las dos posibilidades”, sostiene Kyle Gracey, consultor de Future Matters, una organización sin fines de lucro que capacita a las empresas sobre la reducción de peligros de la IA. Gracey leyó por primera vez The Making of the Atomic Bomb cuando estaba en la universidad y quedó impresionado por el tamaño y la fuerza de las comunidades que participaron en la construcción de la bomba atómica: científicos, por supuesto, pero también familias, trabajadores y simpatizantes que colaboraron en el proyecto. Para Gracey, la verdadera carrera de la inteligencia artificial consiste en conformar una comunidad de seguridad que no se limite a los científicos.

Eso significaría reducir la brecha entre los distintos tipos de personas que se preocupan por la IA. Los riesgos a corto y largo plazo no son fenómenos totalmente diferentes. No fue casualidad que la mayoría de los muertos por las bombas atómicas fueran civiles. Los bombardeos aéreos contra los ciudadanos no empezaron con la Segunda Guerra Mundial, pero este devastador modo de combate se fue imponiendo a medida que avanzaba la contienda. Los bombardeos estratégicos sobre instalaciones militares en Inglaterra se convirtieron poco a poco en el Blitz, a medida que los ataques a la luz del día se tornaban imposibles para la fuerza aérea alemana, Luftwaffe. Los Aliados respondieron con grandes ataques sobre las ciudades alemanas y, más tarde, con campañas de bombardeo absoluto sobre Japón. Con cada nuevo ataque, la devastación de la población civil aumentaba un escalón más. La directriz de la Vigésima Fuerza Aérea sobre las ciudades japonesas tenía el “propósito primordial” de arrasar con todo.

La bomba atómica, la IA y la destrucción de la humanidad

Cuando la bomba entró en escena, había pocas dudas de que se utilizaría contra objetivos civiles. Sencillamente, no quedaban objetivos militares que merecieran un arma de tal magnitud. Y, además, era la continuación natural de una guerra en la que las muertes de civiles superaban a las de militares en una proporción aproximada de 2:1. La bomba fue un salto tecnológico en lo que respecta a la destrucción, pero la idea de una batalla implacable contra los no combatientes se había gestado años antes. Aunque no conozcamos las capacidades de los futuros sistemas de inteligencia artificial, podemos y debemos pensar al respecto detenidamente cuando se refiere a desestimar las preocupaciones actuales acerca de que la IA amenace los puestos de trabajo de los empleados con bajos ingresos o debilite la confianza en las elecciones y las instituciones.

Enfadarse por estos acontecimientos no significa que odies la inteligencia artificial, sino que te preocupa el destino de tus semejantes. Nolan, que últimamente ha dedicado mucho tiempo a pensar en la IA y la bomba atómica, señaló algo parecido en una entrevista reciente con WIRED. “Si apoyamos la idea de que la IA es todopoderosa, respaldamos el argumento de que puede liberar a las personas de la responsabilidad de sus actos, ya sea militar, socioeconómica o de cualquier otro tipo”, destacó. “El mayor peligro de la IA es que le atribuimos estas características divinas y, por lo tanto, nos liberamos de responsabilidad”. La fisión nuclear siempre estuvo ahí para que alguien la descubriera, pero la decisión de utilizarla para matar a seres humanos recae directamente sobre los hombros de humanos.

Quizás existe otra razón por la que los investigadores de IA están tan interesados en el libro de Rhodes: describe a un grupo de jóvenes científicos estudiosos que trabajaron en una misión de importancia mundial. Por más que algunos desarrolladores de IA teman que sus creaciones destruyan el mundo, muchos también creen que darán rienda suelta a la creatividad, potenciarán las economías y liberarán a la gente de la carga de un trabajo inútil. “Están a punto de entrar en la máxima edad de oro”, expresó Sam Altman, CEO de OpenAI, a los asistentes en una charla celebrada en Seúl en junio. O podría matarnos a todos.

Los científicos que construyeron la bomba atómica también reconocieron la dualidad de su situación. Niels Bohr, que llevó la noticia del experimento de fisión cuando cruzó el Atlántico, pensó que el descubrimiento conduciría al fin de la guerra. El físico es la conciencia moral que recorre el libro de Rhodes. Intuyó que esta nueva tecnología radical podía ser la clave para un mundo mejor, si los políticos adoptaban una actitud abierta antes de que se desatara una carrera armamentista. En 1944, Bohr se reunió con el presidente Roosevelt y planteó la posibilidad de que Estados Unidos se pusiera en contacto con la Unión Soviética para intentar negociar algún tipo de acuerdo sobre el uso de armas nucleares. Más tarde, ese mismo año, hizo una petición similar a Winston Churchill.

El primer ministro británico no se mostró tan receptivo a las ideas de Bohr. “El presidente y yo estamos muy preocupados por el profesor Bohr”, escribió Churchill en un memorando tras reunirse con el científico. “Me parece que [él] debería ser encerrado o, en todo caso, hacerle ver que está muy cerca del borde de los crímenes mortales”. A Churchill le inquietaba la idea de que los Aliados compartieran la noticia de la bomba antes de que su aterrador poder destructivo se hubiera demostrado en batalla, y más aún con la que pronto sería su enemiga, la Unión Soviética. Bohr nunca fue invitado a reunirse de nuevo con el presidente o el primer ministro. De los dos futuros posibles previstos por el científico, el mundo se encaminaría por la senda que él más temía.

Artículo originalmente publicado en WIRED UK. Adaptado por Andrei Osornio.