Connect with us

WOW

El director ejecutivo de Microsoft, Satya Nadella, analiza la promesa y los peligros potenciales de la IA

Published

on



STEVE INSKEEP, BYLINE: Hemos estado hablando con un director ejecutivo cuya empresa está difundiendo la inteligencia artificial. Satya Nadella de Microsoft apareció en una pantalla desde su oficina en las afueras de Seattle.

SATYA NADELLA: Creo que el 23 será considerado como el año en que comenzamos a usar la IA. Simplemente se convirtió en parte de nuestras vidas.

INSKEEP: Los chatbots cautivaron a la industria tecnológica. El potencial de la IA para reemplazar a las personas se convirtió en un factor en dos grandes huelgas en Hollywood. Y aunque fue menos noticia, Microsoft está insertando funciones impulsadas por IA en productos cotidianos que ya vende a millones.

¿Ya le está pidiendo a GPT que le redacte memorandos como director ejecutivo de…

NADELLA: Ah…

MANTENGA: …¿Microsoft?

NADELLA: …Cien por ciento.

INSKEEP: Los acontecimientos de este año demostraron lo importantes que son los memorandos de Nadella. Microsoft ha desarrollado productos con OpenAI, un desarrollador de alto perfil. Cuando despidieron a su director ejecutivo, Sam Altman, Nadella tenía el poder de obligar a la junta directiva de OpenAI a volver a contratarlo. Microsoft ha dado forma a los grandes modelos de lenguaje de OpenAI para que puedan redactar elementos en software común como Microsoft Excel, Outlook o Word.

NADELLA: Creo que una gran decisión de diseño que tomamos fue pensar en esto como un copiloto. No como piloto automático, sino como copiloto. Diseñar de tal manera que el ser humano tenga el control. La agencia humana, el juicio humano es lo que sigue siendo el núcleo y luego se construye el producto en torno a ello.

INSKEEP: Ahora, esa referencia al juicio humano llega a las ansiedades sobre la IA. ¿Cuánto puede hacer realmente por nosotros y qué potencial podría hacernos? Quiere que la gente tome las decisiones finales.

NADELLA: Eres el editor. Esa metáfora de pensar en cualquier cosa que se genere como un primer borrador, ya sea un fragmento de código, un fragmento de texto o una imagen, probablemente sea una buena manera de pensar en cómo se aceleran las cosas. Pero al mismo tiempo, los humanos también tienen que hacer su trabajo.

INSKEEP: Sabes, quería jugar con algo de tu tecnología, así que fui a Bing, tu motor de búsqueda, que tiene esto…

NADELLA: Sí.

INSKEEP: …Función de copiloto que puedes usar y le pedí que me ayudara a prepararme para esta entrevista. Y dije, cuéntame algunas cosas que no sabía sobre ti, sobre Satya Nadella. Y me dio información casi en forma de un artículo especial de Wikipedia con una serie de hechos, algunos de los cuales eran ciertos. Y también decía, y lo cito aquí, «Nadella es una amante de la poesía», lo cual creo que es cierto, «y de hecho ha publicado un libro de poemas llamado «Para acortar el camino».

NADELLA: No. Eso es una alucinación. Pero tengo un libro de poesía a mi lado, así que puedes…

INSKEEP: (Risas) «Un poema cada día».

NADELLA: …Di que amo la poesía.

MANTENIMIENTO: OK.

NADELLA: Ahí tienes.

INSKEEP: Pero no es que hayas escrito. DE ACUERDO. DE ACUERDO. Bueno, en realidad volví al Copilot y le dije cuál era la fuente de esa información y pedí una disculpa. Se disculpó y dijo que esa era la información incorrecta.

NADELLA: Eso es bueno.

INSKEEP: ¿Es esto lo que quieres que la gente esté consciente de hacer? ¿Que lo que reciben a cambio puede estar mal? ¿Que necesitan usar su propio cerebro?

NADELLA: Así es. Quiero decir, al final del día, esto no es una base de datos. Es un motor de razonamiento que analiza todos los datos y trata de ayudarle a buscarlos y razonar sobre ellos. Y es por eso que creo que hay que diseñarlo con humanos, enseñarles a corregir, ya sabes, errores y la tecnología en sí necesita mejorar, por así decirlo, en términos de poder ser más precisa y estar basada en la tierra.

INSKEEP: ¿Podría explicarle al profano cómo está evitando que esta tecnología se utilice con fines nocivos? Alguien dice que me den instrucciones sobre cómo hacer una bomba o cualquier otra cosa. ¿Qué instrucciones hay allí para que la máquina le diga que no haga algo mal?

NADELLA: Lo que tienes que hacer es empezar a publicarlo de manera progresiva para que la gente encuentre todos los problemas y luego respaldarlo con toda la tecnología, como filtrar las cosas que no quieres que diga, poner clasificadores, ¿verdad? Cuando alguien dice, ya sabes, dame instrucciones para hacer una bomba, esa es una consulta que no puedes poner en el chat de Bing y obtener una respuesta porque las filtramos. Así que esos son los tipos…

INSKEEP: Lo que significa que usted le ha dado una instrucción a Bing; no haga ese tipo de cosas.

NADELLA: Eso es correcto. Eso es correcto.

INSKEEP: Eso suena muy inteligente. Estoy impresionado de cómo aparecen todas estas instrucciones invisibles con mi consulta. Pero también pienso en la otra cara de la moneda de intentar controlar la tecnología de esa manera. Te conviertes en el guardián, ¿es así? Quiero decir, tú decidirás qué información puedo obtener o no, lo que podría hacer que la gente comience a cuestionarte a ti y a tu poder. ¿Está bien?

NADELLA: Sí. Quiero decir, creo que como productores de tecnología, una es que tenemos que asumir la responsabilidad inicial de cuáles son los estándares de seguridad en torno a nuestros productos. Pero espero plenamente que este sea un lugar en el que en nuestro proceso democrático, ya sea la legislación o los reguladores, tengamos algo que decir sobre qué es exactamente un despliegue seguro.

INSKEEP: ¿Anticipa? ¿Está preparado para la posibilidad, incluso la probabilidad, de que en el año electoral que está por comenzar se vea presionado como lo han estado las empresas de medios sociales en el pasado para permitir que cierta información salga a la luz o para ser criticado por ¿No permitir que cierta información salga?

NADELLA: Ya estamos en el negocio de las búsquedas, ¿verdad? – entonces esto no es nuevo. Esto es…

MANTENIMIENTO: Correcto.

NADELLA: …Básicamente, efectivamente, otro: en la búsqueda, cuando buscas en la web, obtienes todo tipo de resultados. Y hoy en día existe un algoritmo de clasificación en la búsqueda, ya sabes, y ya hay personas que tienen preocupaciones sobre, oye, qué es ese algoritmo de clasificación, cuál es la transparencia a su alrededor y qué tiene. Por lo tanto, creo que este no es un terreno completamente nuevo, pero sí, estaremos sujetos al mismo conjunto de presiones que teníamos antes y, lo que es más importante, a los estándares para asegurarnos de que lo que presentamos a la gente. es algo verificable, preciso y útil.

INSKEEP: Quienes piensan en la IA se dividen entre los optimistas que quieren difundirla lo más rápido posible y los pesimistas que se preocupan por lo que sucederá a medida que las computadoras se vuelvan más inteligentes que las personas. Antes de hablar con Nadella, llamamos a Don Beyer, un congresista de Virginia que estaba entre los legisladores que estaban considerando cómo regular la IA. Le planteamos al CEO una pregunta que está en la mente del legislador.

DON BEYER: La pregunta más importante que le haría es ¿cuál considera que es el riesgo existencial real de la IA? Gente inteligente, ya sabes, los Stephen Hawking que realmente tienen miedo cuando fabricamos máquinas que son más inteligentes que nosotros. Sé que muchos científicos informáticos dicen, oh, no, eso nunca sucederá o será benigno. . No creo que podamos darnos el lujo de ignorar la pregunta más importante: ¿qué significa para el futuro de la humanidad?

NADELLA: La pregunta que, por supuesto, hizo es sobre el riesgo existencial. Primero responderé a eso de manera muy específica, es decir, creo que si de alguna manera entregamos el control a la IA y luego realmente no tenemos el control de la IA, ese es el riesgo existencial del que habla la gente, ¿verdad? ¿Qué sucede cuando, ya sabes, tienes un software de mejora automática sobre el que no tenemos control? Pero lo real de lo que también hablamos antes fue de qué son los daños aquí y ahora, en el mundo real, ¿verdad? Ya sea bioterrorismo o interferencia electoral o desinformación.

INSKEEP: Entonces él ve dos tipos de riesgos: el abuso a corto plazo por parte de las personas y el poder a largo plazo de las máquinas. Microsoft decidió abordar ambos riesgos no conteniendo la tecnología, sino difundiéndola. Cuando las personas utilizan la IA, su experiencia puede mostrar lo que puede hacer y cómo debe limitarse.

NADELLA: Cualquier director ejecutivo que quiera mantener un negocio viable a largo plazo para sus inversores y todos los demás integrantes tiene que pensar en las consecuencias, no sólo en el plazo inmediato, sino también en el largo plazo.

INSKEEP: Déjame preguntarte un poco más sobre eso. Entiendo que mucha gente que trabaja en IA lo hace con un fervor casi religioso. Creen firmemente en la tecnología y la quieren difundir al mundo lo antes posible. ¿No existe el riesgo de que esa actitud, por muy encomiable que parezca, pueda llevarnos por mal camino?

NADELLA: Creo que las personas que trabajan en esta tecnología, francamente, tienen el equilibrio adecuado. Lo que celebro hoy… quiero decir, piensen, ya saben, no estamos hablando sólo de tecnología por el simple hecho de ser tecnología. Estamos hablando de tecnología y su impacto en el mundo real, ¿verdad? Entonces, por ejemplo, en un mundo donde, ya sabes, la inflación se ajusta, el crecimiento económico en todo el mundo es… ¿qué? – básicamente muy bajo. Entonces creo que necesitamos un nuevo factor de producción. Lo que motiva a muchos de nosotros en la tecnología digital es utilizar esta tecnología para impulsar; lo llamaré un crecimiento económico que sea compatible con nuestro planeta. Es compatible con la creación de más oportunidades económicas. Entonces el segundo aspecto es lo que dijiste, ¿cómo lo hacemos de forma segura? No podemos romper cosas porque si rompes cosas, no vas a tener negocio. Por lo tanto, hay que celebrar pensar en ambas cosas simultáneamente y en el hecho de que estemos teniendo un diálogo tan rico.

INSKEEP: Además de impulsar el crecimiento económico, ¿puede esta tecnología impulsar la desigualdad económica, generando cada vez más dinero para las personas que mejor la controlan y dejando a otras personas sin trabajo?

NADELLA: Sabes, es una pregunta interesante. En primer lugar, habrá cambios en los puestos de trabajo y se crearán nuevos puestos de trabajo. Te daré un ejemplo. Hoy puedes participar en la creciente digitalización dentro de tu empresa. Por ejemplo, puede crear una aplicación simplemente utilizando una interfaz de diálogo en lenguaje natural. Entonces, de repente, si usted está en el sector de la salud o en el comercio minorista, como lo es alguien que está en primera línea con experiencia en el campo, esencialmente está haciendo trabajos de clase de TI que pueden incluso tener un mejor apoyo salarial.

INSKEEP: ¿Me estás diciendo que no hablo el lenguaje de programación o no lo escribo, pero hablo inglés y le hablo inglés a la computadora y ésta descubre lo que quiero?

NADELLA: Correcto. Correcto.

INSKEEP: ¿Anticipa un momento en el que haya un modelo de lenguaje grande y tal vez funcione con otro programa de inteligencia artificial que pueda ayudarlo a ver, y este dispositivo piense que es más inteligente que usted y haría un mejor trabajo que usted al ejecutar Microsoft?

NADELLA: Ya sabes, ya existe… existe… Microsoft Copilot me está ayudando a redactar mejor los correos electrónicos, puede ayudarme, de hecho, a participar en una reunión de Teams, a recordar mejor las cosas que dije y que otros dijeron. Entonces, sí, quiero decir, creo que me está ayudando, al menos en mi puesto actual, a ser una mejor persona que trabaja en Microsoft.

INSKEEP: ¿Pero realmente te preocupa ese momento?

NADELLA: Yo… no me preocupo por el momento en que alguna tecnología me reemplace. En todo caso, quiero que la tecnología, con suerte, elimine la monotonía en el trabajo que todos tenemos.

MANTENIMIENTO: Satya Nadella es el director ejecutivo de Microsoft asistido por IA. Su empresa fue gran parte de las novedades en inteligencia artificial en 2023.

(SONIDO SONIDO DE LA MÚSICA)

Copyright © 2023 NPR. Reservados todos los derechos. Visite las páginas de términos de uso y permisos de nuestro sitio web en www.npr.org para obtener más información.

Las transcripciones de NPR las crea un contratista de NPR en una fecha límite urgente. Es posible que este texto no esté en su forma final y pueda ser actualizado o revisado en el futuro. La precisión y la disponibilidad pueden variar. El registro autorizado de la programación de NPR es el registro de audio.

Comentarios

0 Comentarios

Continue Reading
Advertisement
Click to comment

Comentanos