Donde la verdad morirá
Oscar Schwartz
Cuando nada es cierto, la persona deshonesta prosperará diciendo que lo que es verdadero es falso". Fotografía: Joan Wong
En mayo, apareció un video en
Internet de Donald Trump que ofrece consejos a la gente de Bélgica sobre el
tema del cambio climático. "Como saben, tuve la oportunidad de
retirarme del acuerdo climático de París", dijo, mirando directamente a la
cámara, "y usted también debería hacerlo".
El video fue creado
por un partido político belga, Socialistische Partij Anders, o sp.a, y
publicado en Twitter y Facebook de sp.a. Provocó cientos de comentarios,
muchos expresando indignación de que el presidente estadounidense se atrevería
a influir en la política climática de Bélgica.
Una mujer escribió:
"Humpy Trump necesita mirar a su propio país con sus asesinos de niños que
terminan con las armas más pesadas en las escuelas". Otro agregó: "Trump no debería volar tan
alto desde la torre porque los estadounidenses son tan tontos". Pero esta ira
estaba mal dirigida. El discurso, se reveló más tarde, no era más que una
falsificación de alta tecnología.
Sp.a había
encargado a un estudio de producción que usara el aprendizaje automático para
producir lo que se conoce como "falso falso": una réplica de una
persona generada por computadora, en este caso Trump, diciendo o haciendo cosas
que nunca han dicho o hecho.
La intención de
Sp.a era usar el video falso para captar la atención de la gente y luego
redirigirlos a una petición en línea que pide al gobierno belga que tome medidas
climáticas más urgentes. Los creadores del video luego dijeron que asumían
que la mala calidad de la falsificación sería suficiente para alertar a sus
seguidores de su falta de autenticidad. "De los movimientos de los
labios queda claro que este no es un discurso genuino de Trump", dijo un
portavoz de sp.a
Cuando quedó claro que su broma práctica había
salido mal, el equipo de redes sociales de sp.a entró en el control de
daños. "Hola Theo, este es un video lúdico. Trump realmente no
hizo estas declaraciones. "" Hey, Dirk, se supone que este video es
una broma. Trump realmente no dijo esto”.
El equipo de
comunicaciones del partido había subestimado claramente el poder de su
falsificación, o tal vez había sobreestimado la sensatez de su
audiencia. De cualquier manera, este pequeño partido político de
izquierda, tal vez sin quererlo, proporcionó el primer ejemplo del uso de
falsificaciones profundas en un contexto explícitamente político.
Fue una
demostración a pequeña escala de cómo esta tecnología podría usarse para
amenazar nuestro ecosistema de información ya vulnerable, y tal vez socavar la
posibilidad de una realidad compartida y confiable.
El video falso de
Trump fue creado usando una técnica de aprendizaje automático llamada
"red de confrontación generativa", o GAN. Un estudiante
graduado, Ian Goodfellow, inventó las GAN en 2014 como una manera de generar
algoritmos de forma algorítmica nuevos tipos de datos a partir de conjuntos de
datos existentes. Por ejemplo, una GAN puede ver miles de fotos de Barack
Obama y luego producir una nueva foto que se aproxime a esas fotos sin ser una
copia exacta de cualquiera de ellas, como si se hubiera presentado un retrato
completamente nuevo del anterior presidente. Las GAN también se pueden usar
para generar audio nuevo a partir de audio existente o texto nuevo a partir de
texto existente; es una tecnología de uso múltiple.
El uso de esta
técnica de aprendizaje automático se limitó principalmente a la comunidad de
investigación de IA hasta finales de 2017, cuando un usuario de Reddit que
buscaba el apodo de "Deepfakes", una combinación de "aprendizaje
profundo" y "falso", comenzó a publicar videos pornográficos
alterados digitalmente. Estaba creando GAN utilizando TensorFlow, el software
gratuito de aprendizaje de código abierto de Google, para superponer las caras
de las celebridades en los cuerpos de mujeres en películas pornográficas.
Varios medios de
comunicación informaron sobre los videos porno, que se conocieron
como "falsificaciones profundas". En respuesta, Reddit los prohibió por
violar la política de contenido del sitio contra la pornografía
involuntaria. En esta etapa, sin embargo, el creador de los videos lanzó
FakeApp, una plataforma fácil de usar para hacer medios falsificados. El
software libre efectivamente democratizó el poder de las GANs. De repente,
cualquier persona con acceso a Internet e imágenes de la cara de una persona
podría generar su propia falsificación profunda.
Cuando Danielle
Citron, profesora de derecho en la Universidad de Maryland, se dio cuenta de
las películas porno falsas, al principio se sorprendió de lo visceralmente que
violaban el derecho a la privacidad de estas mujeres. Pero una vez que
comenzó a pensar en falsificaciones profundas, se dio cuenta de que si se
extendían más allá de los trolls en Reddit, podrían ser aún más peligrosos. Podrían
ser armados de manera que debiliten el tejido de la propia sociedad
democrática.
"Empecé a
pensar en mi ciudad, Baltimore", dijo. “En 2015, el lugar era una
caja de yesca después del asesinato de Freddie Gray. Entonces, comencé a
imaginar lo que habría pasado si hubiera surgido una falsificación profunda del
jefe de policía diciendo algo profundamente racista en ese momento. El
lugar hubiera explotado".
Citron, junto con
su colega Bobby Chesney, comenzó a trabajar en un informe que describía el
alcance del peligro potencial. Además de considerar la amenaza a la
privacidad y la seguridad nacional, ambos académicos se preocuparon cada vez
más de que la proliferación de falsificaciones profundas podría erosionar
catastróficamente la confianza entre diferentes facciones de la sociedad en un
clima político ya polarizado.
En particular,
podrían prever falsificaciones profundas que serán explotadas por los
proveedores de "noticias falsas". Cualquier persona con acceso a
esta tecnología, desde propagandistas autorizados por el estado hasta trolls,
podría sesgar la información, manipular creencias y, al hacerlo, empujar a las
comunidades en línea opuestas ideológicamente más profundamente en sus propias
realidades subjetivas.
"El mercado de
ideas ya sufre de deterioro de la verdad, ya que nuestro entorno de información
en red interactúa de manera tóxica con nuestros sesgos cognitivos", se lee
en el informe. "Las falsificaciones profundas exacerbarán este
problema significativamente".
Citron y Chesney no
están solos en estos temores. En abril, el director de cine Jordan Peele y
BuzzFeed lanzaron una profunda falsificación de Barack Obama llamando
a Trump una "tontería total y completa" para crear conciencia sobre
cómo los medios sintéticos generados por la IA podrían ser utilizados para
distorsionar y manipular la realidad. En septiembre, tres miembros del
Congreso enviaron una carta al director de inteligencia nacional,
alertando sobre la forma en que las falsificaciones podrían ser aprovechadas
por "campañas de desinformación en nuestras elecciones".
El espectro de las
falsificaciones profundas motivadas políticamente que interrumpen las
elecciones está en la cima de las preocupaciones de Citron. "Lo que
me mantiene despierto por la noche es un escenario hipotético donde, antes de
la votación, alguien revela una falsificación profunda de que un candidato tiene relaciones sexuales con una prostituta, o algo así", dijo Citron. "Ahora, sé que esto sería fácilmente refutable, pero si
esto cae la noche anterior, no se puede desacreditarlo antes de que un daño grave
se haya extendido".
Añadió: "Estoy
empezando a ver cómo una falsificación profunda y en el momento adecuado podría
interrumpir el proceso democrático".
No hay comentarios:
Publicar un comentario