Los videos de los muertos de OpenAI Sora generan alarma entre los expertos legales
Tras su lanzamiento en octubre en EE. UU. y Canadá, solo por invitación, la aplicación de video de OpenAI, Sora 2, alcanzó el millón de descargas en tan solo cinco días. Fotografía: Algi Febri Sugita/ZUMA Press Wire/Shutterstock
La aplicación de video puede producir deepfakes realistas de Marx comprando y troleando a MLK Jr. Algunos dicen que usar "figuras históricas" es la forma en que la compañía tantea las aguas legales
Anoche estaba navegando por una app de citas. Un chico me llamó la atención: "Enrique VIII, 34 años, rey de Inglaterra, no monogamia". De repente, estaba en un bar a la luz de las velas, compartiendo un martini con el mayor número de citas del siglo XVI.
Pero la noche no ha terminado. A continuación, estaré junto a Diana, Princesa de Gales. "¡El público está listo para el descenso!", me grita al oído, con los auriculares puestos en su tiara. Por fin, Karl Marx explica por qué no puede resistirse al 60% de descuento, mientras esperamos en el frío para ser los primeros en aprovechar las ofertas del Black Friday.
En Sora 2, si puedes imaginarlo, probablemente puedas verlo, incluso cuando sabes que no deberías. Lanzada en octubre en EE. UU. y Canadá solo por invitación, la aplicación de video de OpenAI alcanzó el millón de descargas en tan solo cinco días, superando el debut de ChatGPT.
Un video deepfake generado por IA utiliza imágenes de Enrique VIII y Kobe Bryant
Sora no es la única herramienta de IA generativa de texto a video disponible, pero se ha popularizado por dos razones principales.
Primero, es la forma más sencilla hasta la fecha para que los usuarios protagonicen sus propios deepfakes. Escribe una instrucción y en minutos aparece un video de 10 segundos. Luego, se puede compartir en el feed de Sora, al estilo TikTok, o exportar a otros sitios. A diferencia de la "basura de IA" producida en masa y de baja calidad que inunda internet, estos clips tienen un valor de producción alarmantemente alto.
La segunda razón es que Sora permite la imagen de famosos, deportistas y políticos, con una condición crucial: deben estar muertos. Las personas vivas deben dar su consentimiento para aparecer, pero hay una excepción para las "figuras históricas", que Sora parece definir como cualquier persona famosa que ya no esté viva.
Eso parece ser lo que la mayoría de los usuarios han estado haciendo desde el lanzamiento. La fuente principal es un torbellino surrealista de podredumbre cerebral y líderes históricos. Adolf Hitler se pasa los dedos por una melena brillante en un anuncio de champú. La reina Isabel II se catapulta desde una mesa de bar mientras profiere blasfemias. Abraham Lincoln estalla de alegría en un televisor al escuchar: "Tú no eres el padre". El reverendo Martin Luther King Jr. le cuenta a un empleado de una gasolinera su sueño de que algún día todas las bebidas con gas sean gratis; luego, toma la bebida helada y sale corriendo antes de terminar la frase.
Pero los familiares de las personas retratadas no se ríen.
“Es profundamente irrespetuoso y doloroso ver cómo la imagen de mi padre se usa de forma tan arrogante e insensible cuando dedicó su vida a la verdad”, declaró al Washington Post Ilyasah Shabazz, hija de Malcolm X. Tenía dos años cuando asesinaron a su padre. Hoy, vídeos de Sora muestran al activista de derechos civiles forcejeando con MLK, hablando de defecar encima y haciendo chistes groseros."
La gente teme... que este tipo de contenido conduzca a una distorsión de estas personas y de cómo son recordadas.Henry Ajder
Zelda Williams, hija del actor Robin Williams, pidió a la gente que "por favor, dejen" de enviarle videos de su padre con IA, en una historia de Instagram. "Es una tontería, una pérdida de tiempo y energía, y créanme, no es lo que él querría", dijo. Poco antes de su muerte en 2014, el difunto actor emprendió acciones legales para impedir que se usara su imagen en anuncios o se insertara digitalmente en películas hasta 2039. "Ver cómo el legado de personas reales se condensa en... horribles travesuras de TikTok manipuladas por ellos es desesperante", añadió su hija.
Los videos que utilizan la imagen del fallecido comediante George Carlin son “abrumadores y deprimentes”, dijo su hija, Kelly Carlin, en una publicación de BlueSky .
También se han visto muertes recientes. La aplicación está repleta de videos de Stephen Hawking recibiendo una "#bofetadapoderosa" que derriba su silla de ruedas. Kobe Bryant clava la pelota sobre una anciana mientras grita sobre objetos que tiene en el recto. Se puede ver a Amy Winehouse tropezando por las calles de Manhattan o llorando frente a la cámara mientras el rímel se le corre por la cara.
Las muertes de los últimos dos años (Ozzy Osbourne, Matthew Perry, Liam Payne) no están presentes, lo que indica un límite que se sitúa en algún punto intermedio.
Sea cual sea su fallecimiento, esta manipulación de los muertos corre el riesgo de redefinir la historia, afirma Henry Ajder, experto en IA generativa. "La gente teme que un mundo saturado de este tipo de contenido lleve a una distorsión de estas personas y de cómo se les recuerda", afirma.
El algoritmo de Sora prioriza el impacto. Un video muy popular en mi muro muestra a Luther King haciendo sonidos de mono durante su discurso "Tengo un sueño". Otros muestran a Bryant recreando el accidente de helicóptero que lo mató a él y a su hija.
Si bien los actores o las caricaturas también pueden representar a personas póstumamente, existen restricciones legales más estrictas. Un estudio cinematográfico es responsable de su contenido; OpenAI no es necesariamente responsable de lo que aparece en Sora. Representar a alguien para uso comercial también requiere el consentimiento de los herederos en algunos estados.
“No podíamos simplemente resucitar íntimamente a Christopher Lee para protagonizar una nueva película de terror, entonces ¿por qué OpenAI puede resucitarlo para protagonizar miles de cortometrajes?”, pregunta James Grimmelmann, experto en derecho de Internet de la Facultad de Derecho de Cornell y Cornell Tech.
La decisión de OpenAI de entregar las personalidades de los difuntos al patrimonio común plantea preguntas incómodas sobre cómo deberían seguir viviendo los muertos en la era de la IA generativa.
La cuestión jurídica
Dejar que los fantasmas de las celebridades atormenten eternamente a Sora podría parecer incorrecto, pero ¿es legal? Depende de a quién le preguntes.
Una pregunta importante sigue sin resolverse en el derecho de internet: ¿están las empresas de IA amparadas por el artículo 230 y, por lo tanto, no son responsables del contenido de terceros en sus plataformas? Si OpenAI está protegida por el artículo 230, no puede ser demandada por lo que los usuarios hacen en Sora.
"Pero a menos que haya una legislación federal sobre el tema, habrá incertidumbre legal hasta que la Corte Suprema se ocupe de un caso, y eso supone otros dos a cuatro años", dice Ashkhen Kazaryan, experto en la Primera Enmienda y en políticas tecnológicas.
Sam Altman, director ejecutivo de OpenAI, habla durante la Cumbre Snowflake 2025 en San Francisco, California, el 2 de junio. Es una de las figuras vivientes que ha permitido a Sora usar su imagen. Fotografía: Justin Sullivan/Getty Images
Mientras tanto, OpenAI debe evitar demandas. Esto implica exigir el consentimiento de las personas vivas. La ley estadounidense de difamación protege a las personas vivas de cualquier comunicación material que atente contra su reputación. Además, la mayoría de los estados cuentan con leyes de derecho a la publicidad que impiden el uso sin consentimiento de la voz, la personalidad o la imagen de una persona con fines comerciales o engañosos.
Permitir que los muertos sigan existiendo “es su manera de meter el pie en el agua”, dice Kazaryan.
Los fallecidos no están protegidos contra la difamación, pero tres estados —Nueva York, California y Tennessee— otorgan un derecho de publicidad post mortem (el derecho comercial a su imagen). Analizar estas leyes en el contexto de la IA sigue siendo una "zona gris" sin precedentes legales, afirma Grimmelmann.
La gente lo trata como entretenimiento, para ver qué locuras se les ocurren o cuántos “me gusta” pueden conseguir.
Para tener éxito en la demanda, los herederos tendrían que demostrar que OpenAI es responsable, por ejemplo, argumentando que alienta a los usuarios a representar a los muertos.
Grimmelmann señala que la página de inicio de Sora está repleta de este tipo de vídeos, lo que, en efecto, promueve este contenido. Y si Sora fue entrenado con grandes cantidades de imágenes de figuras históricas, los demandantes podrían argumentar que la aplicación está diseñada para reproducirlas.
Sin embargo, OpenAI podría defenderse alegando que Sora es puramente para entretenimiento. Cada video lleva una marca de agua, lo que evita que induzca a error o se clasifique como comercial.
Bo Bergstedt, un investigador de IA generativa, dice que la mayoría de los usuarios están explorando, no monetizando.
“La gente lo toma como entretenimiento, a ver qué locuras se les ocurren o cuántos “me gusta” consiguen”, dice. Por muy molesto que esto pueda ser para las familias, aún podría cumplir con las leyes de publicidad.
Pero si un usuario de Sora crea una audiencia generando vídeos populares de figuras históricas y empieza a monetizar esos seguidores, podría verse envuelto en problemas legales. Alexios Mantzarlis, director de la Iniciativa de Seguridad, Confianza y Protección de Cornell Tech, señala que la "basura económica de la IA" incluye la generación de ingresos indirectos a través de plataformas monetizadas. Por lo tanto, los nuevos "influencers de IA" de Sora podrían enfrentarse a demandas de los herederos si se lucran con los fallecidos.
En respuesta a la reacción negativa, OpenAI anunció la semana pasada que comenzaría a permitir que los representantes de figuras públicas “recientemente fallecidas” soliciten que se bloquee su imagen en los videos de Sora.
“Si bien existen fuertes intereses en materia de libertad de expresión en la representación de figuras históricas, creemos que las figuras públicas y sus familias deberían, en última instancia, tener control sobre cómo se utiliza su imagen”, dijo un portavoz de OpenAI.
La empresa aún no ha definido "recientemente" ni ha explicado cómo se gestionarán las solicitudes. OpenAI no respondió.
También ha dado marcha atrás en su enfoque de derechos de autor libres para todos, después de que contenido subversivo como "Bob Esponja nazi" se extendiera por la plataforma y la Asociación Cinematográfica acusara a OpenAI de infracción. Una semana después del lanzamiento, cambió a un modelo de suscripción voluntaria para los titulares de derechos.
Grimmelmann espera un cambio similar en las representaciones de los muertos. "Insistir en que la gente debe renunciar si no le gusta esto puede ser insostenible", dice. "Es macabro, y si yo tengo ese instinto, otros también lo tendrán, incluidos los jueces".
Bergstedt llama a esto un enfoque de “golpea al topo” para las barreras de protección que probablemente continuará hasta que los tribunales federales definan la responsabilidad de la IA.
En opinión de Ajder, la disputa de Sora anticipa una pregunta más amplia que cada uno de nosotros enfrentará en el futuro: ¿quién controlará nuestra imagen en la era sintética?
“Es una situación preocupante si las personas simplemente aceptan que van a ser utilizadas y abusadas en contenido hiperrealista generado por IA”.