Vínculo copiado
#ESNOTICIA
#ESNOTICIA
Herederos y familiares de Martin Luther King y Malcolm X se quejaron del uso de inteligencia artificial para crear deepfakes que se comparten en redes
08:08 martes 23 diciembre, 2025
MundoEn una realidad paralela, la reina Isabel II se maravilla ante unos bollitos de queso, un Saddam Hussein armado hasta los dientes entra pavoneándose en un ring de lucha libre y el papa Juan Pablo II intenta andar en patineta. Videos hiperrealistas de celebridades fallecidas, creados con aplicaciones de inteligencia artificial (IA) fáciles de usar como Sora de OpenAI, inundan las redes sociales y suscitan un debate sobre el control de la imagen de los difuntos. La aplicación de Open AI, lanzada en septiembre y considerada para muchos una máquina de deepfakes (contenidos hiperrealistas falsos generados por IA), ha producido un flujo de videos de figuras históricas, incluido Winston Churchill, así como de celebridades como Michael Jackson y Elvis Presley. En un clip de TikTok revisado por AFP, la reina Isabel II, con collar de perlas y corona, llega a un combate de lucha libre en scooter, cruza la cuerda y salta sobre un luchador. En otro clip en Facebook, la reina elogia unos bollitos de queso en un pasillo de supermercado, mientras que en otro más se la ve jugando futbol. Pero no todos los videos generados por el modelo Sora 2 d+ han provocado risas. En octubre, el gigante de la IA impidió a los usuarios de su aplicación Sora crear videos utilizando la imagen del histórico activista Martin Luther King Jr. tras las quejas de sus herederos. Algunos usuarios habían hecho videos en los que este ícono de la lucha por los derechos civiles hacía ruidos de mono durante su famoso discurso “I Have a Dream” (Tengo un sueño), y profería comentarios groseros, ofensivos o racistas. “Estamos entrando en el ‘valle inquietante’”, explicó Constance de Saint Laurent, profesora en la Universidad de Maynooth, en Irlanda, en referencia a esa teoría según la cual, cuando un objeto alcanza cierto grado de semejanza antropomórfica o de hiperrealismo, provoca una sensación de angustia y malestar. “Si de pronto empezaras a recibir videos de un ser querido fallecido, sería traumático”, dijo de Saint Laurent. “Estos videos tienen consecuencias reales”. En las últimas semanas, los hijos del actor Robin Williams y del activista estadunidense Malcolm X han condenado el uso de Sora para crear videos de sus padres difuntos. Zelda Williams, hija de Robin Williams, pidió recientemente en Instagram que dejaran de enviarle clips de su padre generados por IA. Es “enloquecedor”, afirmó. Un portavoz de OpenAI indicó a AFP que, si bien “en aras de la libertad de expresión existe un fuerte interés en la representación de figuras históricas”, las personalidades y sus familias deberían tener el control último de su imagen. Para las figuras “fallecidas recientemente”, representantes autorizados pueden ahora solicitar que su imagen no se utilice en Sora, añadió. “A pesar de que OpenAI afirma su voluntad de permitir a la gente controlar su imagen, han publicado una herramienta que, claramente, hace lo contrario”, señaló a Hany Farid, cofundador de la empresa estadunidense de ciberseguridad GetReal Security y profesor en la Universidad de California en Berkeley. “Aunque (en gran medida) han puesto fin a la creación de videos de Martin Luther King Jr., no impiden que los usuarios se apropien de la identidad de muchas otras celebridades”, lamentó. “Más allá de que OpenAI implemente ciertas protecciones” para esa figura política, “habrá otro modelo de IA que no lo haga, y por lo tanto este problema no hará más que empeorar”, advirtió Farid. Esto quedó en evidencia tras el asesinato este mes del director de Hollywood Rob Reiner, cuando los verificadores de AFP descubrieron clips con su imagen generados por IA que se difundían en línea. A medida que proliferan las herramientas avanzadas de IA, la vulnerabilidad ya no se limita a las figuras públicas: personas fallecidas no célebres también pueden ver sus nombres, su imagen y sus palabras tergiversados con fines de manipulación.
Los investigadores advierten que la propagación sin control de contenido sintético -llamado “AI slop” (contenido basura)- podría, en última instancia, ahuyentar a los usuarios de las redes. “El problema de la desinformación en general no es tanto que la gente se la crea. Mucha gente no la cree”, dijo Saint Laurent. “El problema es que ven información real y no confían” que sea cierto, apuntó. Y herramientas como Sora van a “amplificar masivamente este fenómeno”, considera.
Únete a nuestro canal de WhatsApp para no perderte la información más importante 👉🏽 https://gmnet.vip/7Be3H
Con información de Excélsior.