martes, 13 de noviembre de 2018

FALSIFICACIONES PROFUNDAS. ( DEEP FAKES)




Donde la verdad morirá


Oscar Schwartz






Cuando nada es cierto, la persona deshonesta prosperará diciendo que lo que es verdadero es falso". Fotografía: Joan Wong









En mayo, apareció un video en Internet de Donald Trump que ofrece consejos a la gente de Bélgica sobre el tema del cambio climático. "Como saben, tuve la oportunidad de retirarme del acuerdo climático de París", dijo, mirando directamente a la cámara, "y usted también debería hacerlo".

El video fue creado por un partido político belga, Socialistische Partij Anders, o sp.a, y publicado en Twitter y Facebook de sp.a. Provocó cientos de comentarios, muchos expresando indignación de que el presidente estadounidense se atrevería a influir en la política climática de Bélgica.
Una mujer escribió: "Humpy Trump necesita mirar a su propio país con sus asesinos de niños que terminan con las armas más pesadas en las escuelas".  Otro agregó: "Trump no debería volar tan alto desde la torre porque los estadounidenses son tan tontos".  Pero esta ira estaba mal dirigida. El discurso, se reveló más tarde, no era más que una falsificación de alta tecnología.
Sp.a había encargado a un estudio de producción que usara el aprendizaje automático para producir lo que se conoce como "falso falso": una réplica de una persona generada por computadora, en este caso Trump, diciendo o haciendo cosas que nunca han dicho o hecho.

La intención de Sp.a era usar el video falso para captar la atención de la gente y luego redirigirlos a una petición en línea que pide al gobierno belga que tome medidas climáticas más urgentes. Los creadores del video luego dijeron que asumían que la mala calidad de la falsificación sería suficiente para alertar a sus seguidores de su falta de autenticidad. "De los movimientos de los labios queda claro que este no es un discurso genuino de Trump", dijo un portavoz de sp.a 

 Cuando quedó claro que su broma práctica había salido mal, el equipo de redes sociales de sp.a entró en el control de daños. "Hola Theo, este es un video lúdico. Trump realmente no hizo estas declaraciones. "" Hey, Dirk, se supone que este video es una broma. Trump realmente no dijo esto”.
El equipo de comunicaciones del partido había subestimado claramente el poder de su falsificación, o tal vez había sobreestimado la sensatez de su audiencia. De cualquier manera, este pequeño partido político de izquierda, tal vez sin quererlo, proporcionó el primer ejemplo del uso de falsificaciones profundas en un contexto explícitamente político.

Fue una demostración a pequeña escala de cómo esta tecnología podría usarse para amenazar nuestro ecosistema de información ya vulnerable, y tal vez socavar la posibilidad de una realidad compartida y confiable.
El video falso de Trump fue creado usando una técnica de aprendizaje automático llamada "red de confrontación generativa", o GAN. Un estudiante graduado, Ian Goodfellow, inventó las GAN en 2014 como una manera de generar algoritmos de forma algorítmica nuevos tipos de datos a partir de conjuntos de datos existentes. Por ejemplo, una GAN puede ver miles de fotos de Barack Obama y luego producir una nueva foto que se aproxime a esas fotos sin ser una copia exacta de cualquiera de ellas, como si se hubiera presentado un retrato completamente nuevo del anterior presidente. Las GAN también se pueden usar para generar audio nuevo a partir de audio existente o texto nuevo a partir de texto existente; es una tecnología de uso múltiple.

El uso de esta técnica de aprendizaje automático se limitó principalmente a la comunidad de investigación de IA hasta finales de 2017, cuando un usuario de Reddit que buscaba el apodo de "Deepfakes", una combinación de "aprendizaje profundo" y "falso", comenzó a publicar videos pornográficos alterados digitalmente. Estaba creando GAN utilizando TensorFlow, el software gratuito de aprendizaje de código abierto de Google, para superponer las caras de las celebridades en los cuerpos de mujeres en películas pornográficas.

Varios medios de comunicación informaron sobre los videos porno, que se conocieron como "falsificaciones profundas". En respuesta, Reddit los prohibió por violar la política de contenido del sitio contra la pornografía involuntaria. En esta etapa, sin embargo, el creador de los videos lanzó FakeApp, una plataforma fácil de usar para hacer medios falsificados. El software libre efectivamente democratizó el poder de las GANs. De repente, cualquier persona con acceso a Internet e imágenes de la cara de una persona podría generar su propia falsificación profunda.
Cuando Danielle Citron, profesora de derecho en la Universidad de Maryland, se dio cuenta de las películas porno falsas, al principio se sorprendió de lo visceralmente que violaban el derecho a la privacidad de estas mujeres. Pero una vez que comenzó a pensar en falsificaciones profundas, se dio cuenta de que si se extendían más allá de los trolls en Reddit, podrían ser aún más peligrosos. Podrían ser armados de manera que debiliten el tejido de la propia sociedad democrática.
"Empecé a pensar en mi ciudad, Baltimore", dijo. “En 2015, el lugar era una caja de yesca después del asesinato de Freddie Gray. Entonces, comencé a imaginar lo que habría pasado si hubiera surgido una falsificación profunda del jefe de policía diciendo algo profundamente racista en ese momento. El lugar hubiera explotado".
Citron, junto con su colega Bobby Chesney, comenzó a trabajar en un informe que describía el alcance del peligro potencial. Además de considerar la amenaza a la privacidad y la seguridad nacional, ambos académicos se preocuparon cada vez más de que la proliferación de falsificaciones profundas podría erosionar catastróficamente la confianza entre diferentes facciones de la sociedad en un clima político ya polarizado.

En particular, podrían prever falsificaciones profundas que serán explotadas por los proveedores de "noticias falsas". Cualquier persona con acceso a esta tecnología, desde propagandistas autorizados por el estado hasta trolls, podría sesgar la información, manipular creencias y, al hacerlo, empujar a las comunidades en línea opuestas ideológicamente más profundamente en sus propias realidades subjetivas.
"El mercado de ideas ya sufre de deterioro de la verdad, ya que nuestro entorno de información en red interactúa de manera tóxica con nuestros sesgos cognitivos", se lee en el informe. "Las falsificaciones profundas exacerbarán este problema significativamente".
Citron y Chesney no están solos en estos temores. En abril, el director de cine Jordan Peele y BuzzFeed lanzaron una profunda falsificación de Barack Obama llamando a Trump una "tontería total y completa" para crear conciencia sobre cómo los medios sintéticos generados por la IA podrían ser utilizados para distorsionar y manipular la realidad. En septiembre, tres miembros del Congreso enviaron una carta al director de inteligencia nacional, alertando sobre la forma en que las falsificaciones podrían ser aprovechadas por "campañas de desinformación en nuestras elecciones".

El espectro de las falsificaciones profundas motivadas políticamente que interrumpen las elecciones está en la cima de las preocupaciones de Citron. "Lo que me mantiene despierto por la noche es un escenario hipotético donde, antes de la votación, alguien revela una falsificación profunda de que un candidato tiene relaciones sexuales con una prostituta, o algo así", dijo Citron. "Ahora, sé que esto sería fácilmente refutable, pero si esto cae la noche anterior, no se  puede desacreditarlo antes de que un daño grave se haya extendido".
Añadió: "Estoy empezando a ver cómo una falsificación profunda y en el momento adecuado podría interrumpir el proceso democrático".
















No hay comentarios:

Publicar un comentario