Generales Escuchar artículo

“Claramente era yo”: usaron su imagen sin permiso para convertirla en protagonista de una microserie creada con IA

Un capítulo de Black Mirror. Así podría describirse lo que vivió la influencer china Christine Li cuando se encontró en un video golpeando a mujeres y maltratando animales. Pero no era ...

“Claramente era yo”: usaron su imagen sin permiso para convertirla en protagonista de una microserie creada con IA

Un capítulo de Black Mirror. Así podría describirse lo que vivió la influencer china Christine Li cuando se encontró en un video golpeando a mujeres y maltratando animales. Pero no era ...

Un capítulo de Black Mirror. Así podría describirse lo que vivió la influencer china Christine Li cuando se encontró en un video golpeando a mujeres y maltratando animales.

Pero no era realmente ella, sino una versión generada con inteligencia artificial (IA) sin su consentimiento para dar vida a un personaje de la microserie The Peach Blossom Hairpin. El episodio se viralizó en Hongguo, una plataforma de ByteDance —la compañía detrás de TikTok— especializada en la difusión de ficciones breves para redes sociales.

Fueron sus seguidores quienes la alertaron sobre la existencia del video, que para ese momento ya acumulaba millones de visualizaciones. “Quedé en shock. Era claramente yo”, dijo Li, e indicó que era “evidente” que alguien había utilizado sus fotos publicadas en redes sociales para crear el contenido.

“Sentí un miedo profundo, preguntándome qué tipo de persona podría hacer algo así”, agregó. La joven planea presentar una demanda judicial, informó O Globo.

Li no fue la única víctima: también se utilizó la imagen de un hombre —identificado bajo el seudónimo Baicai— para crear al “marido” de Li. Según contó, fue retratado como alguien “feo y sospechoso”. “¿Qué impacto tendrá esto sobre mí, mi trabajo y mis oportunidades profesionales?“, se lamentó.

Tras el escándalo, The Peach Blossom Hairpin siguió disponible en la plataforma, aunque con sus personajes reemplazados. No obstante, desde Hongguo afirmaron que el video fue eliminado por incumplir las normas de la aplicación.

A su vez, prometieron reforzar sus procedimientos de revisión de contenido y eliminaron cerca de 670 microseries que infringían las normas de la plataforma. Sin embargo, aún se desconoce quién estuvo detrás de la creación de los deepfakes de Li y Baicai.

Por su parte, las autoridades chinas decretaron que la creación de microseries con IA deberá estar sujeta a la obtención de licencias. La decisión no es casual: el mercado de ficciones ultracortas ya superó los US$8000 millones a nivel mundial, con un fuerte crecimiento en China, según datos de Media Partners Asia.

El caso recuerda al de Scott Jacqmein, un actor estadounidense de 52 años que a mediados de año pasado empezó a recibir mensajes de amigos y conocidos sorprendidos por su presencia en distintas publicidades en TikTok, promocionando una gran variedad de productos. Pero no era él: era un avatar digital creado a partir de un video sobre el que había cedido derechos de propiedad en 2023, y que ahora se usaba de base para generar videos con IA de los que no cobra un centavo.

Identidad digital, ¿un activo vulnerable?

Para Mariano Casero, CTO de Finnegans, casos como el de Christine Li son consecuencia de un vacío legal que lleva años sin resolverse. “La imagen todavía no recibe el tratamiento que debería. Tu cara es un dato personal. Usarla sin consentimiento tendría que tener las mismas consecuencias legales que cualquier otra violación de datos”, comenta a LA NACION.

Y añade: “Antes te robaban una contraseña, ahora te roban la apariencia y eso es mucho más difícil de recuperar”.

Sergio Sirotinsky, profesor de IA de la Universidad del CEMA, comparte una mirada similar: “Hoy la IA permite recrear nuestro rostro, voz, gestos y apariencia para insertarnos en situaciones que nunca protagonizamos. Eso transforma la identidad en un activo vulnerable”.

En este escenario, ambos expertos señalan que los controles de las plataformas no son preventivos, sino reactivos. “La tecnología avanza, genera el daño, y recién entonces aparecen los controles”, analiza Casero.

Bajo esa línea, Sirotinsky remarca la importancia de reforzar medidas de protección dentro de las plataformas, como la verificación de consentimiento para usar rostros o voces reales, la detección automática de deepfakes, la trazabilidad de los contenidos generados con IA, el etiquetado visible cuando hay contenido sintético y el acceso a canales ágiles para reclamos.

“La responsabilidad es de las empresas que desarrollan los modelos, de las plataformas que distribuyen el contenido, y de los usuarios que lo generan. No puede recaer únicamente en la víctima, que es quien menos poder tiene en toda esta cadena”, suma Casero.

Nuevos marcos regulatorios

Por otro lado, los especialistas consultados por este medio subrayan que los marcos regulatorios deben actualizarse. “El problema es complejo y las soluciones también lo son. El desafío es cómo dejar que la tecnología siga avanzando sin que eso se haga a costa de la privacidad de las personas”, reflexiona Casero. En ese sentido, puntualiza que América Latina todavía está “varios pasos atrás”.

Sirotinsky explica que, si bien en la Argentina aún no existe una ley específica de deepfakes, hay normativas vigentes que pueden ofrecer protección desde varios frentes. “El Código Civil y Comercial resguarda derechos como la imagen, el honor, la intimidad y la dignidad, mientras que la Ley de Protección de Datos Personales protege el uso de información que permite identificar a una persona, como fotos, videos o registros biométricos”, detalla.

Sin embargo, el rápido avance de la tecnología cambia por completo las reglas del juego. “La IA generativa introdujo una escala, una velocidad y una capacidad de manipulación que esas normas no habían previsto. Ya no hablamos solo de una foto usada sin permiso, sino de la posibilidad de recrear rostros, voces y escenas completas falsas con apariencia totalmente realista”, precisa Sirotinsky.

Por este motivo, el experto considera que la regulación debe avanzar sobre cuatro puntos clave: exigir consentimiento explícito para el uso de imagen y voz, obligar al etiquetado visible de contenidos generados o alterados con IA, establecer mecanismos rápidos de remoción y reparación para las víctimas, y aplicar sanciones claras a quienes lucran con la suplantación o el uso no autorizado de identidades ajenas.

“El problema no es que no exista ninguna protección legal, sino que la velocidad de la IA avanzó más rápido que la precisión de las normas”, señala Sirotinsky. Y concluye: “El derecho llega, pero muchas veces llega tarde”.

Fuente: https://www.lanacion.com.ar/economia/IA/claramente-era-yo-usaron-su-imagen-sin-permiso-para-convertirla-en-protagonista-de-una-microserie-nid01052026/

Volver arriba