Ya abusamos de la inteligencia artificial
Resultó que las órdenes de arresto se habían basado únicamente en una coincidencia de reconocimiento facial, aunque eso nunca se mencionó en ningún documento policial; las órdenes afirmaban que “una fuente creíble” había identificado a Reid como el culpable. La coincidencia de reconocimiento facial fue incorrecta, el caso finalmente se vino abajo y Reid fue puesto en libertad.
El tuvo suerte. Tenía la familia y los recursos para descubrir la verdad. Millones de estadounidenses no habrían tenido tales activos sociales y financieros. Sin embargo, Reid no es la única víctima de una coincidencia de reconocimiento facial falso. Los números son pequeños, pero hasta ahora todos los arrestados en EE. UU. después de una coincidencia falsa han sido negros. Lo cual no es sorprendente dado que sabemos que no solo el diseño mismo del software de reconocimiento facial hace que sea más difícil identificar correctamente a las personas de color, sino también que los algoritmos replican los sesgos del mundo humano.
El caso de Reid, y el de otros como él, debería estar en el centro de uno de los debates contemporáneos más urgentes: el de la inteligencia artificial y los peligros que plantea. Que no lo sea, y que tan pocos lo reconozcan como significativo, muestra cuán distorsionada se ha vuelto la discusión sobre la IA y cómo necesita reiniciarse. Durante mucho tiempo ha habido una corriente de miedo sobre el tipo de mundo que la IA podría crear. Los desarrollos recientes han potenciado ese miedo y lo han insertado en la discusión pública. El lanzamiento el año pasado de la versión 3.5 de ChatGPT, y de la versión 4 en marzo, creó asombro y pánico: asombro por la facilidad del chatbot para imitar el lenguaje humano y pánico por las posibilidades de falsificación, desde ensayos de estudiantes hasta informes de noticias.
Luego, hace dos semanas, miembros destacados de la comunidad tecnológica, incluidos Sam Altman, director ejecutivo de OpenAI, que fabrica ChatGPT, Demis Hassabis, director ejecutivo de Google DeepMind, y Geoffrey Hinton y Yoshua Bengio, a menudo vistos como los padrinos de la IA moderna, fue más allá. Lanzaron una declaración afirmando que la IA podría anunciar el fin de la humanidad. “Mitigar el riesgo de extinción de la IA”, advirtieron , “debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.
Si tantos mandamases de Silicon Valley realmente creen que están creando productos tan peligrosos como afirman, ¿por qué, uno podría preguntarse, continúan gastando miles de millones de dólares en la construcción, el desarrollo y el perfeccionamiento de esos productos? Es como un adicto a las drogas tan dependiente de su dosis que aboga por una rehabilitación forzada para alejarlo de las cosas difíciles. Exhibir sus productos como súper inteligentes y súper poderosos sin duda ayuda a masajear los egos de los empresarios tecnológicos, así como a mejorar sus resultados. Y, sin embargo, la IA no es tan inteligente ni tan poderosa como les gustaría que creyéramos. ChatGPT es sumamente bueno para cortar y pegar texto de una manera que lo hace parecer casi humano, pero tiene una comprensión insignificante del mundo real. Es, como lo expresó un estudio, poco más que un “ loro estocástico ”.
Seguimos muy lejos del santo grial de la "inteligencia general artificial", máquinas que poseen la capacidad de comprender o aprender cualquier tarea intelectual que un ser humano pueda realizar, y por lo tanto pueden mostrar el mismo tipo de inteligencia aproximada que los humanos, y mucho menos un forma superior de inteligencia.
La obsesión con los miedos de fantasía ayuda a ocultar los problemas más mundanos pero también más significativos con la IA que deberían preocuparnos; los tipos de problemas que atraparon a Reid y que podrían atraparnos a todos. Desde la vigilancia hasta la desinformación, vivimos en un mundo moldeado por la IA. Una característica definitoria del “nuevo mundo de la vigilancia ambiental”, observó el empresario tecnológico Maciej Ceglowski en una audiencia del comité del Senado de los EE. UU., es que “no podemos optar por salirnos de él, como tampoco podemos optar por salirnos de la cultura del automóvil al negarnos a conducir.” Nos hemos topado con un panóptico digital casi sin darnos cuenta. Sin embargo, sugerir que vivimos en un mundo moldeado por la IA es extraviar el problema. No hay máquina sin un ser humano, y tampoco es probable que la haya.
La razón por la que Reid fue encarcelado por error tuvo menos que ver con la inteligencia artificial que con las decisiones tomadas por los humanos. Los humanos que crearon el software y lo entrenaron. Los humanos que lo desplegaron. Los humanos que aceptaron sin cuestionar la coincidencia de reconocimiento facial. Los humanos que obtuvieron una orden de arresto alegando que Reid había sido identificado por una "fuente creíble". Los humanos que se negaron a cuestionar la identificación incluso después de las protestas de Reid. Etcétera.
Con demasiada frecuencia, cuando hablamos del "problema" de la IA, eliminamos al ser humano de la imagen. Practicamos una forma de lo que el científico social y desarrollador de tecnología Rumman Chowdhury llama "subcontratación moral": culpar a las máquinas por las decisiones humanas. Nos preocupa que la IA "elimine puestos de trabajo" y haga que millones sean despedidos, en lugar de reconocer que las decisiones reales las toman los gobiernos y las corporaciones y los humanos que las dirigen. Los titulares advierten sobre “algoritmos racistas y sexistas”, pero los humanos que crearon los algoritmos y quienes los implementan permanecen casi ocultos.
Hemos llegado, en otras palabras, a ver a la máquina como el agente y a los humanos como víctimas de la agencia de la máquina. Irónicamente, son nuestros mismos miedos a la distopía, no la propia IA, los que están ayudando a crear un mundo en el que los humanos se vuelven más marginales y las máquinas más centrales. Tales temores también distorsionan las posibilidades de regulación. En lugar de ver la regulación como un medio por el cual podemos moldear colectivamente nuestra relación con la IA y la nueva tecnología, se convierte en algo que se impone desde arriba como un medio para proteger a los humanos de las máquinas. No es la IA sino nuestro sentido del fatalismo y nuestra ceguera ante la forma en que las sociedades humanas ya están desplegando la inteligencia artificial con fines políticos lo que más debería preocuparnos.
No hay comentarios:
Publicar un comentario