WOW
Este video de Tiktok es falso, pero cada palabra fue tomada de un verdadero creador


Los investigadores y usuarios de Tiktok dicen que hay otro tipo de engaño a tener en cuenta en la aplicación de video Hit: Videos de Deepfake que copian las palabras exactas de un creador real pero con una voz diferente. En este caso, la captura de pantalla de la izquierda proviene del video original de Tiktok; A la derecha hay una copia que usa una personalidad aparentemente generada por IA.
Bronson Arcuri/NPR/@Aliunfiltered_
escondite
alternar
Bronson Arcuri/NPR/@Aliunfiltered_
Millones de Tiktokkers han visto alguna versión de un video la semana pasada afirmando falsamente que «están instalando incineradores en Alligator Alcatraz», refiriéndose a una teoría de la conspiración de Internet que los hornos se estaban estableciendo en un centro de detención de inmigración estatal en los Everglades de Florida, que se propagó ampliamente a pesar de no tener evidencia.

Uno de los videos que circulan el rumor atrajo a casi 20 millones de visitas. Estimuló una conversación sobre Tiktok, con los creadores que pesan con sus propias tomas y, en un puñado de casos, intentando desacreditar la teoría sin fundamento.
Pero hay una cuenta cuyas tácticas se destacan en esta cacofonía familiar de viralidad en línea desordenada: un tiktokker de aspecto realista que da una descripción directa a la cámara de la teoría de la conspiración del incinerador. La imagen y la voz del orador parecen haberse creado con herramientas de inteligencia artificial, según dos expertos en medios forenses que NPR consultó. El giro: las palabras que se hablan en el video son exactamente las mismas que las de otro video publicado por una cuenta de Tiktok diferente días antes. La versión copiada atrajo más de 200,000 visitas sobre Tiktok.

Investigadores de fallas profundas: imágenes y videos generados por IA tan plausibles que pueden engañar a las personas para que piensen que son reales, digamos que esta duplicación parece representar una nueva forma en que la IA está siendo aprovechada para engañar: hacer que AI recita las palabras reales de una persona real, de acuerdo con los Trojos, «Ums» y «Uhs».
Ali Palmer, un creador en Dallas que publica en Tiktok como @aliunfiltered_, hizo un video, sobre un padre que saltó de un crucero de Disney para salvar a su hijo, que fue arrancado usando sus palabras exactas para un video hecho con IA.
Copiar en Tiktok es rampante, dijo, pero generalmente las cuentas de spam que lo hacen volver a publicar todo su video. Las cuentas con IA que recitan sus palabras por una persona generada por IA son nuevas, dijo.
«Es molesto. Se siente como una violación de la privacidad», dijo Palmer, de 33 años. «Nunca podría imaginar copiar a alguien y luego ganar dinero con él. Simplemente se siente sucio».
Con todo tipo de copia, Palmer lo ha informado a Tiktok, pero no pasa nada. «Es increíblemente frustrante».

Hany Farid, profesora de la Universidad de California, Berkeley, que estudia forense digital, dijo que lo nuevo aquí es que las palabras de una persona promedio están siendo robadas.
«Todo el tiempo, estamos viendo que las identidades de las personas se cooptan para hacer cosas como estafas de cripto de halcón o empujar curas falsas para el cáncer, pero generalmente es una persona o influencia famosa», dijo Farid.
Farid utilizó una herramienta forense digital para analizar el video de incinerador copiado, el video de Disney Cruise y otros videos publicados por la misma cuenta, a pedido de NPR, y concluyeron que eran productos de IA.
«Es el tipo de cosas que sería súper fácil de ver con las herramientas de IA de hoy y algo que fácilmente deslizaría las grietas de moderación de contenido», dijo.
Si bien el uso de AI para copiar videos no parece violar las políticas de Tiktok, la plataforma dice que requiere que los usuarios «etiqueten todo el contenido generado por la IA que contiene imágenes realistas, audio y video».
Después de que se publicó esta historia, aparecieron etiquetas que indican videos en las dos cuentas identificadas NPR incluían medios generados por IA.
Los defectos profundos se han vuelto más sofisticados en los últimos años, además de ser cada vez más desplegados para fines maliciosos.

La tecnología se ha utilizado para hacerse pasar por políticos, incluido el Secretario de Estado Marco Rubio, el ex presidente Joe Biden y el presidente ucraniano Volodymyr Zelenskyy. El surgimiento de las herramientas de «Nudify» de Deepfake llevó al Congreso este año a aprobar una ley federal para combatir la propagación de imágenes íntimas no consensuadas, incluidos los desnudos falsos generados por la IA.
Un hecho más borrosa de la ficción es este último enfoque de tratar de capitalizar un momento viral de Tiktok haciendo que un creador ficticio recita las palabras de un creador real.

Es difícil medir cuán extendida es la práctica en Tiktok, que es utilizada por más de mil millones de personas en todo el mundo. NPR no pudo identificar a las personas o motivaciones detrás de las cuentas que replican las palabras de los creadores. Las cuentas no respondieron a las solicitudes de comentarios. Tampoco Tiktok o la mayoría de los creadores cuyas palabras fueron cembradas.
Dos cuentas identificadas por NPR como utilizando las palabras de otros creadores y aparentemente el uso de imágenes y voces generadas por IA tienen algunas similitudes: cada uno tiene alrededor de 10,000 seguidores pero no siguen a nadie de regreso. Muchos de los videos publicados por ambas cuentas Representan las personas negras que dijo Farid de Berkeley parecen ser «profundos de baja calidad» hechos con IA. Y cada cuenta robó las palabras de otro creador de Tiktok sobre varios temas virales, que van desde una mujer que recibió un levantamiento de cara en Guadalajara, México, hasta una mujer que llevaba un cuello de perro a la antigua Meghan Markle bailando en una sala de parto en el hospital.
En el video de Meghan, el creador asumió un acento británico. En otros, la voz asume un registro completamente diferente.
«La mayor dicho es cuando das un paso atrás y miras la cuenta en su conjunto: cuando miras un video en comparación con otro video, está claro que la voz de la persona cambia de video a video», dijo Darren Linvill, profesor de comunicaciones y codirector del centro forense de medios de la Universidad Clemson. Linvill también revisó los videos a pedido de NPR y concluyó que estaban hechos con la ayuda de las herramientas de IA.
Juntos, las dos cuentas han colocado millones de puntos de vista al aprovechar historias virales que se sienten más hacia el forraje sensacionalista que el drama político. Pero los investigadores que rastrean la guerra de información patrocinada por el estado dicen que probar nuevas estrategias para el jugo de la viralidad es algo que los actores respaldados por el gobierno también hacen regularmente.

Linvill estudia cómo las naciones, incluidas China, Rusia e Irán, usan herramientas digitales para la propaganda. Él dice que crear personajes de IA, como Faux News Anchors, es una táctica también utilizada por las operaciones de influencia respaldadas por el estado. Si bien NPR no encontró indicios de que las cuentas que identificó son parte de dicha campaña, a menudo hay una superposición en las tácticas utilizadas por engañosos Actores estatales y cuentas que buscan participar en las plataformas de redes sociales.
«Robar contenido en las redes sociales es tan antigua como las redes sociales», dijo Linvill. «Lo que estamos viendo aquí es AI haciendo lo que hemos visto a AI ser realmente bueno una y otra vez, y eso es sistematizar las cosas, haciendo que los procesos sean más baratos, más rápido y más fácil. Y la IA es realmente buena para hacer que sea más rápido y más fácil robar contenido».
Alex Hendricks se estaba desplazando por Tiktok esta semana cuando vio dos videos consecutivos sobre la conspiración de incineradores de Florida. Es normal ver a muchos creadores intervenir sobre el mismo tema, pero estos videos lo consideraron como inusual porque los monólogos eran inquietantemente idénticos, solo en voces de diferentes sonido.
Entonces Hendricks hizo un video de Tiktok apuntando esto. Sin embargo, apenas tiene vistas.
«Sé que hay muchas noticias falsas sobre Tiktok, y he sido escéptico de cualquier cosa debido a la IA, pero este tipo de replicación se sintió nuevo y loco», dijo Hendricks, de 32 años, que trabaja en el comercio minorista en Montana. «Es por eso que les digo a todos: no creas nada que veas. Y referente todo lo que ves antes de compartirlo en Tiktok», dijo. «Pero no estoy seguro de que escuchen».
Comentarios
0 Comentarios