miércoles, 10 de abril de 2024

IMÁGENES FALSAS

 

'El tiempo se acaba': ¿se puede evitar un futuro de deepfakes indetectables?

 Alex Hern

 

 

 

El contenido de IA generativa está superando al ojo humano y encontrarlo y eliminarlo automáticamente es difícil. Fotografía: María Korneeva/Getty Images

 



Los signos reveladores de imágenes generativas de IA están desapareciendo a medida que la tecnología mejora y los expertos buscan nuevos métodos para contrarrestar la desinformación

Con más de 4.000 acciones, 20.000 comentarios y 100.000 reacciones en Facebook, la foto de la anciana, sentada detrás de su tarta casera de cumpleaños número 122, sin duda se ha vuelto viral. "Empecé a decorar pasteles cuando tenía cinco años", dice el pie de foto, "y no puedo esperar a que mi trayectoria en la repostería crezca".

La imagen también es indudablemente falsa. Si las curiosas velas (una parece flotar en el aire, sin sujetarse a nada) o las extrañas manchas amorfas en el pastel en primer plano no lo delatan, entonces el hecho de que el celebrante sea la persona más vieja del mundo por casi cinco años deberían.

Afortunadamente, hay poco en juego para los decoradores de pasteles supercentenarios virales. Lo cual es bueno, ya que a medida que la IA generativa mejora cada vez más, los días de buscar señales reveladoras para detectar una falsificación casi han terminado. Y eso ha creado una carrera contra el tiempo: ¿podemos idear otras formas de detectar falsificaciones antes de que sean indistinguibles de la realidad?

"Se nos está acabando el tiempo para poder realizar la detección manual", afirmó Mike Speirs, de la consultora de IA Faculty, donde dirige el trabajo de la empresa en materia de lucha contra la desinformación. “Los modelos se están desarrollando a una velocidad y un ritmo increíbles desde un punto de vista técnico y bastante alarmantes."

“Existen todo tipo de técnicas manuales para detectar imágenes falsas, desde palabras mal escritas hasta piel incongruentemente suave o arrugada. Las manos son un clásico, y los ojos también lo dicen bastante bien. Pero incluso hoy en día, lleva mucho tiempo: no es algo que realmente se pueda ampliar. Y el tiempo se acaba: los modelos son cada vez mejores”.

Desde 2021, el generador de imágenes de OpenAI, Dall-E, ha lanzado tres versiones, cada una radicalmente más capaz que la anterior. El competidor independiente Midjourney lanzó seis en el mismo período, mientras que el modelo Stable Diffusion, gratuito y de código abierto, llegó a su tercera versión, y Gemini de Google se unió a la pelea. A medida que la tecnología se ha vuelto más poderosa, también se ha vuelto más fácil de usar. La última versión de Dall-E está integrada en ChatGPT y Bing, mientras que Google ofrece sus propias herramientas de forma gratuita a los usuarios

Las empresas de tecnología han comenzado a reaccionar ante la inminente avalancha de medios generados. La Coalición para la Procedencia y Autenticidad del Contenido, que incluye entre sus miembros a la BBC, Google, Microsoft y Sony, ha elaborado estándares para marcas de agua y etiquetado, y en febrero OpenAI anunció que los adoptaría para Dall-E 3. Ahora, las imágenes generadas por La herramienta tiene una etiqueta visible y una marca de agua legible por máquina. Al final de la distribución, Meta ha comenzado a agregar sus propias etiquetas al contenido generado por IA y dice que eliminará las publicaciones que no estén etiquetadas.

Esas políticas podrían ayudar a abordar algunas de las formas más virales de desinformación, como los chistes internos o la sátira que se difunde fuera de su contexto original. Pero también pueden crear una falsa sensación de seguridad, afirma Spires. "Si el público se acostumbra a ver imágenes generadas por IA con una marca de agua, ¿significa eso que implícitamente confía en cualquiera sin marca de agua?"

Esto es un problema, ya que el etiquetado no es universal ni es probable que lo sea. Las grandes empresas como OpenAI podrían aceptar etiquetar sus creaciones, pero las nuevas empresas como Midjourney no tienen la capacidad de dedicar tiempo adicional de ingeniería al problema. Y para proyectos de “código abierto”, como Stable Diffusion, es imposible forzar la aplicación de la marca de agua, ya que siempre es una opción simplemente “bifurcar” la tecnología y construir la suya propia.

Y ver una marca de agua no necesariamente tiene el efecto que uno desearía, dice Henry Parker, jefe de asuntos gubernamentales del grupo de verificación de hechos Logicically. La empresa utiliza métodos tanto manuales como automáticos para examinar el contenido, afirma Parker, pero el etiquetado sólo puede llegar hasta cierto punto. “Si le dices a alguien que está viendo un deepfake incluso antes de verlo, la psicología social de ver ese video es tan poderosa que seguirá haciendo referencia a él como si fuera un hecho. Entonces, lo único que puedes hacer es preguntar ¿cómo podemos reducir la cantidad de tiempo que este contenido está en circulación?"

En última instancia, eso requerirá encontrar y eliminar automáticamente el contenido generado por IA. Pero eso es difícil, dice Parker. "Hemos estado intentándolo durante cinco años y somos bastante honestos acerca del hecho de que llegamos a alrededor del 70%, en términos de precisión que podemos lograr". A corto plazo, el problema es una carrera armamentista entre la detección y la creación: incluso los generadores de imágenes que no tienen intenciones maliciosas querrán intentar vencer a los detectores, ya que el objetivo final es crear algo tan fiel a la realidad como una fotografía.

Lógicamente piensa que la respuesta es mirar alrededor de la imagen, dice Parker: "¿Cómo se intenta realmente observar la forma en que se comportan los actores de la desinformación?" Eso significa monitorear las conversaciones en la web para capturar a los malhechores en la etapa de planificación en sitios como 4chan y Reddit, y vigilar el comportamiento enjambre de cuentas sospechosas que han sido cooptadas por un actor estatal. Incluso entonces, el problema de los falsos positivos es difícil. “¿Estoy ante una campaña que está llevando a cabo Rusia? ¿O estoy viendo a un grupo de fans de Taylor Swift compartiendo información sobre entradas para conciertos?"

Otros son más optimistas. Ben Colman, director ejecutivo de la startup de detección de imágenes Reality Defender, cree que siempre habrá la posibilidad de detección, incluso si la conclusión es simplemente señalar algo como posiblemente falso en lugar de llegar a una conclusión definitiva. Esos signos pueden ser cualquier cosa, desde “un filtro en frecuencias más altas que indica demasiada suavidad” hasta, en el caso del contenido de video, la imposibilidad de mostrar el rubor invisible, pero detectable, que todos muestran cada vez que su corazón late con sangre fresca alrededor de su cara.

"Las cosas seguirán avanzando en el lado falso, pero el lado real no está cambiando", concluye Colman. "Creemos que nos acercaremos a un modelo único que sea más imperecedero".

La tecnología, por supuesto, es sólo una parte de la solución. Si la gente realmente cree que la foto de una mujer de 122 años con un pastel que ella misma horneó es real, entonces no se necesitarán generadores de imágenes de última generación para engañarlos y hacerles creer otras cosas más dañinas.  Pero es un comienzo.





























 

No hay comentarios:

Publicar un comentario