Connect with us

WOW

Por primera vez, OpenAI elimina las operaciones de influencia vinculadas a Rusia, China e Israel.

Published

on

Por primera vez, OpenAI elimina las operaciones de influencia vinculadas a Rusia, China e Israel.

OpenAI, la compañía detrás de herramientas de inteligencia artificial generativa como ChatGPT, anunció el jueves que había eliminado las operaciones de influencia vinculadas a Rusia, China e Irán.

Stefani Reynolds/AFP vía Getty Images


ocultar título

alternar título

Stefani Reynolds/AFP vía Getty Images

Según un nuevo informe de OpenAI, las operaciones de influencia en línea con sede en Rusia, China, Irán e Israel están utilizando inteligencia artificial en sus esfuerzos por manipular al público.

Los malos actores han utilizado las herramientas de OpenAI, que incluyen ChatGPT, para generar comentarios en las redes sociales en varios idiomas, inventar nombres y biografías para cuentas falsas, crear dibujos animados y otras imágenes, y depurar código.

El informe de OpenAI es el primero de su tipo de la compañía, que rápidamente se ha convertido en uno de los principales actores de la IA. ChatGPT ha conseguido más de 100 millones de usuarios desde su lanzamiento público en noviembre de 2022.

Pero aunque las herramientas de inteligencia artificial han ayudado a las personas detrás de las operaciones de influencia a producir más contenido, cometer menos errores y crear la apariencia de compromiso con sus publicaciones, OpenAI dice que las operaciones que encontró no ganaron una tracción significativa con personas reales ni llegaron a grandes audiencias. En algunos casos, la poca participación auténtica que obtuvieron sus publicaciones se debió a que los usuarios las calificaron de falsas.

«Estas operaciones pueden estar utilizando nueva tecnología, pero todavía están luchando con el viejo problema de cómo hacer que la gente caiga en la trampa», dijo Ben Nimmo, investigador principal del equipo de investigaciones e inteligencia de OpenAI.

Esto se hace eco del informe trimestral de amenazas del propietario de Facebook, Meta, publicado el miércoles. El informe de Meta dice que varias de las operaciones encubiertas que desmanteló recientemente utilizaban IA para generar imágenes, videos y texto, pero que el uso de tecnología de punta no ha afectado la capacidad de la compañía para interrumpir los esfuerzos para manipular a las personas.

El auge de la inteligencia artificial generativa, que puede producir rápida y fácilmente audio, vídeo, imágenes y texto realistas, está creando nuevas vías para el fraude, las estafas y la manipulación. En particular, la posibilidad de que las falsificaciones de IA perturben las elecciones está alimentando los temores a medida que miles de millones de personas en todo el mundo acuden a las urnas este año, incluidos Estados Unidos, India y la Unión Europea.

En los últimos tres meses, OpenAI prohibió cuentas vinculadas a cinco operaciones encubiertas de influencia, que define como “intento[s] manipular la opinión pública o influir en los resultados políticos sin revelar la verdadera identidad o las intenciones de los actores detrás de ellos”.

Esto incluye dos operaciones bien conocidas por las empresas de redes sociales y los investigadores: el Doppelganger de Rusia y una red china en expansión denominada Spamouflage.

Doppelganger, que ha sido vinculado con el Kremlin por el Departamento del Tesoro de Estados Unidos, es conocido por falsificar sitios web de noticias legítimos para socavar el apoyo a Ucrania. Spamouflage opera en una amplia gama de plataformas de redes sociales y foros de Internet, impulsando mensajes a favor de China y atacando a los críticos de Beijing. El año pasado, Meta, propietario de Facebook, dijo que Spamouflage es la operación de influencia encubierta más grande que jamás haya interrumpido y la vinculó con las autoridades chinas.

Tanto Doppelganger como Spamouflage utilizaron herramientas OpenAI para generar comentarios en varios idiomas que se publicaron en sitios de redes sociales. La red rusa también utilizó inteligencia artificial para traducir artículos del ruso al inglés y al francés y convertir artículos del sitio web en publicaciones de Facebook.

Las cuentas de Spamouflage utilizaron inteligencia artificial para depurar el código de un sitio web dirigido a disidentes chinos, analizar publicaciones en redes sociales e investigar noticias y eventos actuales. Algunas publicaciones de cuentas falsas de Spamouflage solo recibieron respuestas de otras cuentas falsas en la misma red.

Otra red rusa prohibida por OpenAI de la que no se había informado anteriormente centró sus esfuerzos en enviar spam a la aplicación de mensajería Telegram. Utilizó herramientas OpenAI para depurar el código de un programa que publicaba automáticamente en Telegram y utilizó IA para generar los comentarios que sus cuentas publicaban en la aplicación. Al igual que Doppelganger, los esfuerzos de la operación tenían como objetivo general socavar el apoyo a Ucrania, a través de publicaciones que pesaban sobre la política en Estados Unidos y Moldavia.

Otra campaña que tanto OpenAI como Meta dijeron haber interrumpido en los últimos meses se remonta a una empresa de marketing político en Tel Aviv llamada Stoic. Cuentas falsas se hacían pasar por estudiantes judíos, afroamericanos y ciudadanos preocupados. Publicaron sobre la guerra en Gaza, elogiaron al ejército de Israel y criticaron el antisemitismo universitario y la agencia de ayuda de la ONU para los refugiados palestinos en la Franja de Gaza, según Meta. Las publicaciones estaban dirigidas a audiencias de Estados Unidos, Canadá e Israel. Meta prohibió a Stoic en sus plataformas y envió a la empresa una carta de cese y desistimiento.

OpenAI dijo que la operación israelí utilizó IA para generar y editar artículos y comentarios publicados en Instagram, Facebook y X, así como para crear personas y biografías ficticias para cuentas falsas. También encontró cierta actividad de la red dirigida a las elecciones en India.

Ninguna de las operaciones que OpenAI interrumpió solo utilizó contenido generado por IA. «No se trataba de renunciar a la generación humana y pasar a la IA, sino de mezclar las dos», dijo Nimmo.

Dijo que si bien la IA ofrece a los actores de amenazas algunos beneficios, incluido aumentar el volumen de lo que pueden producir y mejorar las traducciones en todos los idiomas, no les ayuda a superar el principal desafío de la distribución.

«Puedes generar el contenido, pero si no tienes los sistemas de distribución para presentarlo a la gente de una manera que parezca creíble, entonces tendrás dificultades para transmitirlo», dijo Nimmo. «Y realmente lo que estamos viendo aquí es esa dinámica».

Pero empresas como OpenAI deben permanecer alerta, añadió. «Este no es momento de complacencia. La historia muestra que operaciones de influencia que durante años no lograron llegar a ninguna parte pueden estallar repentinamente si nadie las busca».

Comentarios

0 Comentarios

Continue Reading
Advertisement
Click to comment

Comentanos