Advertisement[wpas_products keywords="Tools"]
LEILA FADEL, PRESENTADORA:
El periodista Thom Shanker pasó décadas cubriendo las guerras estadounidenses y la seguridad nacional. Escribió para The New York Times. Ahora se alejó. Y le dice a nuestro coanfitrión, Steve Inskeep, que está pensando en amenazas en un futuro no muy lejano.
THOM SHANKER: Hay muchas cosas que dan mucho miedo por ahí. Y durante 20 años, defendemos que este gobierno se centró en la lucha contra el terrorismo, un enfoque similar al zoom. Y durante esos 20 años, ignoramos muchas amenazas crecientes. Y ahora están sobre nosotros. Y realmente no estamos preparados. El sistema no está preparado. El público no está preparado. No hemos pensado en algunas de estas cosas.
Advertisement[wpas_products keywords="Tools"]
STEVE INSKEEP, PRESENTADOR:
Shanker fue coautor de un libro con Andrew Hoehn llamado «Age Of Danger». Es un catálogo de amenazas que podrían mantener a la gente despierta por la noche si supieran. Dice que los profesionales de seguridad nacional advierten sobre enfermedades diseñadas para destruir cultivos estadounidenses. Piensan en bases navales bajas que pueden estar bajo el agua en unas pocas décadas gracias al cambio climático. Piensan en formas de contrarrestar el armamento avanzado de China. Shanker no aboga por un mayor presupuesto militar para contrarrestar estas amenazas, pero sí argumenta que el gobierno necesita hacer un uso más inteligente de los recursos que tiene. Él dice que un buen ejemplo son los peligros de las computadoras operadas por inteligencia artificial.
SHANKER: La mayor parte de la discusión pública sobre la IA hasta ahora ha sido sobre si escribirá la tarea de mi hijo. Eso es malo. ¿Dejará a los asistentes legales sin trabajo? Eso es malo. ¿Me dirá que rompa con mi perro? Eso es malo. ¿Compondrá sinfonías, no sé, si son buenas sinfonías? Esos son problemas del mundo real, Steve. Pero cuando ingresas al espacio de la seguridad nacional, se vuelve muy, muy aterrador lo que la IA puede hacer, un armamento autónomo que opera sin un humano en la cadena de muerte.
Advertisement[wpas_products keywords="Tools"]
INSKEEP: Cuando dice armamento autónomo, ¿qué queremos decir, como un tanque sin persona que se conduce solo, encuentra su propio objetivo y le dispara?
SHANKER: Ya está sucediendo ahora. Hay un axioma militar que dice que la velocidad mata. Si ves primero, si evalúas primero, si decides primero, si actúas primero, tienes una ventaja increíble. Y esto ya es parte del equipo militar estadounidense, como las baterías antimisiles Patriot que le hemos dado a Ucrania. Misiles entrantes, realmente no tienes tiempo para que un humano saque su iPad y calcule trayectorias y todo eso. Así que están programados para responder sin que un humano haga mucho. Se llama ojos puestos, manos fuera.
INSKEEP: ¿Un humano todavía aprieta el gatillo o presiona el botón en ese caso?
Advertisement[wpas_products keywords="Tools"]
SHANKER: Ciertamente puede. Absolutamente. Absolutamente. Pero a veces, si todos los datos que ingresan indican verdaderamente que es un misil adversario, responderá. Y aquí es donde se pone aterrador. A medida que las armas se vuelven más rápidas, como los hipersónicos, cuando pueden atacar a la velocidad de la red, como los ataques cibernéticos, los humanos simplemente no pueden involucrarse en eso. Así que tienes que programar, tienes que poner tu mejor poder intelectual humano en estas máquinas y esperar que respondan en consecuencia. Pero como sabemos en el mundo real, los humanos cometen errores. Los hospitales explotan. Los inocentes son asesinados. ¿Cómo evitamos que ese error humano entre en un programa que permite que una máquina nos defienda a la velocidad de la red, mucho más rápido que un ser humano?
INSKEEP: Estoy pensando en la forma en que Estados Unidos y Rusia, o en otro contexto, tal vez, Estados Unidos y China, tienen sus fuerzas armadas apuntadas entre sí y preparadas para responder proporcionalmente entre sí. En el peor de los casos, un ataque nuclear podría ser respondido por un ataque nuclear. ¿Es posible que a través de estas computadoras increíblemente rápidas, podamos entrar en un ciclo en el que nuestras computadoras se disparen entre sí y escalen una guerra en minutos o segundos?
SHANKER: Eso no es donde estamos ahora. Pero eso, por supuesto, es la preocupación no solo de los estrategas del mundo real, sino también de los guionistas, como «Dr. Strangelove», ese tipo de cosas.
Advertisement[wpas_products keywords="Tools"]
INSKEEP: Iba a preguntarte si habías visto «Dr. Strangelove». Claramente, usted tiene.
SHANKER: Deberías preguntarme cuántas veces he visto «Dr. Strangelove».
INSKEEP: Describamos, no creo que estemos revelando demasiado, la máquina que resulta ser la gran revelación en «Dr. Strangelove». ¿Qué es la máquina del fin del mundo?
Advertisement[wpas_products keywords="Tools"]
SHANKER: Bueno, el líder del Kremlin ha ordenado que se cree una máquina que si la Unión Soviética alguna vez es atacada, todo el arsenal soviético se desataría contra el adversario. Y de alguna manera, puedes argumentar que es un elemento disuasorio porque no importa quién ataque con un misil o con 1000, la respuesta será abrumadora.
(SOUNDBITE DE LA PELÍCULA, «DR. STRANGELOVE O: CÓMO APRENDÍ A DEJAR DE PREOCUPARME Y AMAR LA BOMBA»)
PETER SELLERS: (Como Dr. Strangelove) Debido al proceso de toma de decisiones automatizado e irrevocable, que descarta la intromisión humana, la máquina del fin del mundo es aterradora y fácil de entender y completamente creíble y convincente.
Advertisement[wpas_products keywords="Tools"]
GEORGE C SCOTT: (Como General Turgidson) Caramba, ojalá tuviéramos una de esas máquinas del fin del mundo, Stainsey.
SHANKER: Pero el chiste de la película es que iban a anunciarlo en el cumpleaños del líder soviético la semana siguiente. Entonces el mundo no sabe que este sistema de disuasión está establecido. Y básicamente, Armagedón está asegurado.
INSKEEP: Lo que va a pasar es que va a haber un ataque al azar.
Advertisement[wpas_products keywords="Tools"]
SHANKER: Y la máquina responderá, según lo programado por los humanos. Y el desafío de hoy es que, en este momento, la mayoría de los misiles vuelan sobre el polo. Tenemos bastante buen tiempo de advertencia. Pero como los chinos en particular experimentan con armas hipersónicas, es posible que no tengamos el tiempo de advertencia. Y algún día podría haber un argumento para diseñar sistemas que respondan de forma autónoma a un ataque hipersónico furtivo de este tipo.
INSKEEP: Cuando pienso en las conexiones históricas entre el Pentágono, los contratistas de defensa y Silicon Valley y todo el poder de cómputo que hay en Silicon Valley, me gustaría imaginar que Estados Unidos está al tanto de este problema. ¿Están al tanto de este problema?
SHANKER: Algunas de las mejores mentes están al tanto. Y Andy Hoehn y yo hablamos con varias personas en el sector privado, varias personas en el sector público, en el gobierno. Y realmente son conscientes del problema. Están haciendo preguntas como, ¿cómo diseñamos una inteligencia artificial que tenga límites, que entienda las leyes de la guerra, que entienda las reglas de las represalias, que no se asigne una misión que no les guste a los humanos? Pero incluso personas como Eric Schmidt, ya sabes, el fundador de Google, que está gastando mucho tiempo y dinero en este espacio exacto, nos habló oficialmente. Está extremadamente preocupado por estas preguntas.
Advertisement[wpas_products keywords="Tools"]
INSKEEP: Me parece que hay dos problemas interrelacionados. Una es que un adversario como China se adelanta a los Estados Unidos y puede derrotar a los Estados Unidos. Pero la otra es que algún esfuerzo de Estados Unidos se sale de control y nos autodestruimos.
SHANKER: Eso es una preocupación. Y ese podría ser tu próximo guión. Y el problema es que estás planteando un problema, Steve, para el que nadie tiene una respuesta. Quiero decir, ¿cómo se diseña una IA con verdadera inteligencia, compasión y racionalidad, porque al final del día, son solo unos y ceros?
INSKEEP: Tom Shanker es coautor del nuevo libro «Age Of Danger». Muchas gracias.
Advertisement[wpas_products keywords="Tools"]
SHANKER: Fue un honor estar aquí, Steve. ¡Muchas gracias por invitarme.
(SOUNDBITE DE LA CANCIÓN, «NOS ENCONTRAREMOS DE NUEVO»)
VERA LYNN: (Cantando) Nos encontraremos de nuevo, no sé dónde.
Advertisement[wpas_products keywords="Tools"]
Derechos de autor © 2023 NPR. Reservados todos los derechos. Visite las páginas de términos de uso y permisos de nuestro sitio web en www.npr.org para obtener más información.
Las transcripciones de NPR las crea un contratista de NPR en una fecha límite urgente. Este texto puede no estar en su forma final y puede ser actualizado o revisado en el futuro. La precisión y la disponibilidad pueden variar. El registro autorizado de la programación de NPR es el registro de audio.