OpenAI detiene los vídeos ‘irrespetuosos’ de Martin Luther King Jr. Sora
 
                 
Liv Mc Mahonreportero de tecnología
 Archivo Bettmann/Getty Pictures
Archivo Bettmann/Getty PicturesOpenAI se ha detenido Su aplicación de inteligencia synthetic (IA), Sora, crea movies falsos que retratan al Dr. Martin Luther King Jr, a raíz de una solicitud de su patrimonio.
La empresa reconoció que el generador de vídeo había creado contenido «irrespetuoso» sobre el activista de derechos civiles.
Sora tiene se volvió viral en los EE. UU. debido a su capacidad para crear movies hiperrealistas, lo que ha llevado a que las personas compartan escenas falsas de celebridades y personajes históricos fallecidos en escenarios extraños y, a menudo, ofensivos.
OpenAI dijo que pausaría las imágenes del Dr. King «a medida que fortalece las barreras para las figuras históricas», pero continúa permitiendo que las personas hagan clips de otras personas de alto perfil.
Ese enfoque ha resultado controvertido, ya que se han compartido ampliamente en línea movies en los que aparecen figuras como el presidente John F. Kennedy, la reina Isabel II y el profesor Stephen Hawking.
Esto llevó a Zelda Williams, la hija de Robin Williams, pedirle a la gente que deje de enviarle movies de su padre generados por IAel célebre actor y cómico estadounidense que murió en 2014.
Bernice A. King, hija del difunto Dr. King, hizo más tarde una petición pública related: escribiendo en línea: «Estoy de acuerdo con lo de mi padre. Por favor, detente».
Entre los vídeos generados por IA que mostraban al defensor de los derechos civiles se encontraban algunos editando su infame discurso «Tengo un sueño» de varias maneras, con el Informes del Washington Put up un clip lo mostró haciendo ruidos racistas.
Mientras tanto, otros compartidos en la aplicación Sora y en las redes sociales mostraban figuras parecidas al Dr. King y al activista de derechos civiles Malcolm X peleando entre sí.
Permitir incógnita ¿contenido?
La autora y especialista en ética de la IA, Olivia Gambelin, dijo a la BBC que limitar el uso adicional de la imagen del Dr. King period «un buen paso adelante».
Pero dijo que la compañía debería haber implementado medidas desde el principio, en lugar de adoptar un enfoque de «prueba y error por manguera contra incendios» para implementar dicha tecnología.
Dijo que la capacidad de crear deepfakes de personajes históricos fallecidos no sólo hablaba de una «falta de respeto» hacia ellos, sino que también planteaba más peligros para la comprensión de la gente sobre el contenido actual y falso.
«Esto juega demasiado con el intento de reescribir aspectos de la historia», dijo.
‘Intereses de libertad de expresión’
El aumento de los deepfakes (vídeos que han sido alterados utilizando herramientas de inteligencia synthetic u otras tecnologías para mostrar a alguien hablando o comportándose de una manera que no lo hace) ha generado preocupaciones de que puedan usarse para difundir desinformación, discriminación o abuso.
OpenAI dijo el viernes que, si bien creía que había «fuertes intereses de libertad de expresión al representar personajes históricos», ellos y sus familias deberían tener management sobre sus imágenes.
«Los representantes autorizados o los propietarios de propiedades pueden solicitar que su imagen no se utilice en los cameos de Sora», decía.
El experto en IA generativa Henry Ajder dijo que este enfoque, aunque positivo, «plantea preguntas sobre quién obtiene protección contra la resurrección sintética y quién no».
«El patrimonio de King planteó esto legítimamente ante OpenAI, pero muchas personas fallecidas no tienen patrimonios bien conocidos ni con recursos que los representen», dijo.
«En última instancia, creo que queremos evitar una situación en la que, a menos que seamos muy famosos, la sociedad acepte que después de nuestra muerte haya una batalla campal sobre cómo seguir siendo representados».
OpenAI dijo a la BBC en un comunicado a principios de octubre que había creado «múltiples capas de protección para evitar el uso indebido».
Y dijo que estaba en «diálogo directo con figuras públicas y propietarios de contenido para recopilar comentarios sobre qué controles quieren» con miras a reflejar esto en cambios posteriores.


 
                       
                       
                       
                       
                       
                      