Connect with us

WOW

Nuevas herramientas ayudan a los artistas a luchar contra la IA alterando directamente los sistemas

Published

on


Una ilustración de un raspador mal dirigido por Kudurru.

Kurt Paulsen/Kudurru


ocultar título

alternar título

Kurt Paulsen/Kudurru


Una ilustración de un raspador mal dirigido por Kudurru.

Kurt Paulsen/Kudurru

Los artistas han estado luchando en varios frentes contra las empresas de inteligencia artificial que, según dicen, roban sus obras para entrenar modelos de IA, incluido el lanzamiento de demandas colectivas y hablar en audiencias gubernamentales.

Ahora, los artistas visuales están adoptando un enfoque más directo: están empezando a utilizar herramientas que contaminan y confunden los propios sistemas de IA.

Una de esas herramientas, Nightshade, no ayudará a los artistas a combatir los modelos de IA existentes que ya han sido entrenados en sus trabajos creativos. Pero Ben Zhao, que dirige el equipo de investigación de la Universidad de Chicago que construyó la herramienta digital que se lanzará próximamente, dice que promete romper con los futuros modelos de IA.

«Se puede pensar en Nightshade como agregar una pequeña pastilla venenosa dentro de una obra de arte de tal manera que literalmente intenta confundir el modelo de entrenamiento con lo que realmente está en la imagen», dice Zhao.

Cómo funciona Belladona

Los modelos de IA como DALL-E o Stable Diffusion suelen identificar imágenes a través de las palabras utilizadas para describirlas en los metadatos. Por ejemplo, un imagen de un perro se empareja con el palabra «perro.» Zhao dice

Nightshade confunde este emparejamiento al crear una falta de coincidencia entre la imagen y el texto.

«Así, por ejemplo, tomará la imagen de un perro y la alterará de manera sutil, de modo que a usted y a mí todavía nos parezca un perro; excepto para la IA, ahora parece un gato», dice Zhao.


Ejemplos de imágenes generadas por modelos de IA envenenados con Nightshade y el modelo de IA limpio.

Equipo de Glaze y Nightshade de la Universidad de Chicago


ocultar título

alternar título

Equipo de Glaze y Nightshade de la Universidad de Chicago

Zhao dice que espera que Nightshade pueda contaminar futuros modelos de IA hasta tal punto que las empresas de IA se vean obligadas a volver a versiones antiguas de sus plataformas o dejar de utilizar las obras de los artistas para crear otras nuevas.

«Me gustaría crear un mundo donde la IA tenga límites, barreras de seguridad y límites éticos que se hagan cumplir mediante herramientas», afirma.

Armas incipientes en el arsenal disruptivo de la IA de un artista

Nightshade no es la única arma incipiente en el arsenal disruptivo de IA de un artista.

El equipo de Zhao también lanzó recientemente Glaze, una herramienta que cambia sutilmente los píxeles de una obra de arte para dificultar que un modelo de IA imite el estilo de un artista específico.

«Glaze es sólo un primer paso para que las personas se unan para crear herramientas que ayuden a los artistas», dice la fotógrafa de moda Jingna Zhang, fundadora de Cara, una nueva comunidad en línea centrada en promover el arte creado por humanos (a diferencia del arte generado por IA). . «Por lo que vi mientras probaba con mi propio trabajo, se interrumpe el resultado final cuando una imagen se adapta a mi estilo». Zhang dice que se están trabajando planes para incorporar Glaze y Nightshade en Cara.

Y luego está Kudurru, creado por la empresa con fines de lucro Spawning.ai. El recurso, ahora en versión beta, rastrea las direcciones IP de los raspadores y las bloquea o devuelve contenido no deseado, como un dedo medio extendido o la clásica broma de trolling de Internet «Rickroll» que envía spam a los usuarios desprevenidos con un vídeo musical del cantante británico Rick. El éxito pop de Astley de los años 80, «Never Gonna Give You Up».

YouTube

«Queremos que los artistas puedan comunicarse de manera diferente a los robots y raspadores utilizados con fines de inteligencia artificial, en lugar de darles toda la información que les gustaría brindar a sus fanáticos», dice el cofundador de Spawning, Jordan Meyer.

Los artistas están emocionados

La artista Kelly McKernan dice que no pueden esperar para tener en sus manos estas herramientas.

«Yo digo, ¡vámonos!» dice la pintora, ilustradora y madre soltera que vive en Nashville. «¡Vamos a envenenar los conjuntos de datos! ¡Hagamos esto!»


La artista Kelly McKernan en su estudio en Nashville, Tennessee, 2023.

Nick Pettit


ocultar título

alternar título

Nick Pettit


La artista Kelly McKernan en su estudio en Nashville, Tennessee, 2023.

Nick Pettit

McKernan dice que han estado librando una guerra contra la IA desde el año pasado, cuando descubrieron que su nombre se estaba usando como mensaje de IA, y luego que más de 50 de sus pinturas habían sido copiadas para modelos de IA de LAION-5B, una imagen masiva. conjunto de datos.

A principios de este año, McKernan se unió a una demanda colectiva alegando que Stability AI y otras empresas similares utilizaron miles de millones de imágenes en línea para entrenar sus sistemas sin compensación ni consentimiento. El caso está en curso.

«Estoy justo en medio de esto, junto con tantos artistas», dice McKernan.

Mientras tanto, McKernan dice que las nuevas herramientas digitales les ayudan a sentir que están haciendo algo agresivo e inmediato para salvaguardar su trabajo en un mundo de demandas judiciales lentas y legislación aún más lenta.

McKernan añade que están decepcionados, pero no sorprendidos, de que la orden ejecutiva recién firmada por el presidente Joe Biden sobre inteligencia artificial no aborde el impacto de la IA en las industrias creativas.

«Entonces, por ahora, esto es como, está bien, mi casa sigue siendo asaltada, ¡así que me protegeré con algo como una maza y un hacha!» dicen de las oportunidades defensivas que ofrecen las nuevas herramientas.

Debates sobre la eficacia de estas herramientas

Si bien los artistas están entusiasmados con el uso de estas herramientas, algunos expertos en seguridad de IA y miembros de la comunidad de desarrollo están preocupados por su eficacia, especialmente a largo plazo.

«Este tipo de defensas parecen ser eficaces contra muchas cosas en este momento», afirma Gautam Kamath, que investiga la privacidad de los datos y la solidez de los modelos de IA en la Universidad de Waterloo, Canadá. «Pero no hay ningún tipo de garantía de que seguirán siendo eficaces dentro de un año o de diez años. Diablos, incluso dentro de una semana, no lo sabemos con certeza».

Las plataformas de redes sociales también se han encendido últimamente con acalorados debates que cuestionan cuán efectivas son realmente estas herramientas. Las conversaciones a veces involucran a los creadores de las herramientas.

Meyer, de Spawning, dice que su empresa está comprometida a fortalecer a Kudurru.

«Existen vectores de ataque desconocidos para Kudurru», afirma. «Si la gente empieza a encontrar formas de evitarlo, tendremos que adaptarnos».

«No se trata de escribir una pequeña herramienta divertida que pueda existir en algún mundo aislado donde a algunas personas les importa, a otras no, y las consecuencias son pequeñas y podemos seguir adelante», dice Zhao, de la Universidad de Chicago. «Esto involucra a personas reales, sus medios de vida, y esto realmente importa. Así que sí, continuaremos mientras sea necesario».

Un desarrollador de IA interviene

Los mayores actores de la industria de la IA (Google, Meta, OpenAI y Stability AI) no respondieron o rechazaron las solicitudes de comentarios de NPR.

Pero Yacine Jernite, que dirige el equipo de aprendizaje automático y sociedad en la plataforma de desarrollo de IA Hugging Face, dice que incluso si estas herramientas funcionaran realmente bien, eso no sería tan malo.

«Los consideramos un avance muy positivo», dice Jernite.

Jernite dice que los datos deberían estar ampliamente disponibles para la investigación y el desarrollo. Pero las empresas de IA también deberían respetar los deseos de los artistas de optar por no eliminar su trabajo.

«Cualquier herramienta que permita a los artistas expresar su consentimiento encaja perfectamente con nuestro enfoque de tratar de obtener tantas perspectivas sobre lo que constituye un conjunto de datos de entrenamiento», dice.

Jernite dice que varios artistas cuyo trabajo se utilizó para entrenar modelos de IA compartidos en la plataforma Hugging Face se han pronunciado en contra de la práctica y, en algunos casos, han pedido que se eliminen los modelos. Los desarrolladores no tienen que cumplir.

«Pero descubrimos que los desarrolladores tienden a respetar los deseos de los artistas y eliminar esos modelos», dice Jernite.

Aún así, muchos artistas, incluido McKernan, no confían en los programas de exclusión voluntaria de las empresas de IA. «No todos los ofrecen», dice el artista. «Y aquellos que lo hacen, a menudo no facilitan el proceso».

Cuentos en audio y digitales editados por Meghan Collins Sullivan. Audio producido por Isabella Gómez Sarmiento.

Comentarios

0 Comentarios

Continue Reading
Advertisement
Click to comment

Comentanos