martes, 25 de abril de 2023

INTELIGENCIA ARTIFICIAL...OTRA VEZ


 ¿Qué tan preocupante es el rápido crecimiento de la IA?


Dan Milmo y Alex Hern








Cuando el jefe de Google admite haber perdido el sueño por el potencial negativo de la inteligencia artificial, tal vez sea hora de preocuparse.

Sundar Pichai le dijo al programa 60 Minutos de CBS este mes que la IA podría ser "muy dañina" si se implementa incorrectamente y que se estaba desarrollando rápidamente. “Entonces, ¿eso me mantiene despierto por la noche? Absolutamente”, dijo.

Pichai debería saberlo. Google ha lanzado Bard , un chatbot para competir con el fenómeno ChatGPT, y su empresa matriz, Alphabet, es propietaria de DeepMind, una empresa de IA con sede en el Reino Unido, líder mundial.

Él no es el único miembro de AI que expresa sus preocupaciones. La semana pasada, Elon Musk dijo que se había peleado con el cofundador de Google, Larry Page, porque Page “no se estaba tomando la seguridad de la IA lo suficientemente en serio”. Musk le dijo a Fox News que Page quería "superinteligencia digital, básicamente un dios digital, por así decirlo, lo antes posible".

Entonces, ¿qué peligro representa el desarrollo desenfrenado de la IA? Musk es uno de los miles de firmantes de una carta publicada por el Future of Life Institute, un grupo de expertos, que pedía una moratoria de seis meses sobre la creación de IA "gigantes" más poderosas que GPT-4, el sistema que sustenta ChatGPT y el chatbot integrado con el motor de búsqueda Bing de Microsoft . Los riesgos citados en la carta incluyen “pérdida de control de nuestra civilización”.

El enfoque del desarrollo de productos mostrado por los profesionales de la IA y la industria tecnológica no sería tolerado en ningún otro campo, dijo Valérie Pisano, otra firmante de la carta. Pisano, el director ejecutivo de Mila, el Instituto de Inteligencia Artificial de Quebec, dice que se estaba trabajando para asegurarse de que estos sistemas no fueran racistas o violentos, en un proceso conocido como alineación (es decir, asegurarse de que se “alineen” con los valores humanos). Pero luego fueron puestos en libertad en el ámbito público.

“La tecnología se pone a disposición y, a medida que el sistema interactúa con la humanidad, sus desarrolladores esperan a ver qué sucede y hacen ajustes en función de eso. Como colectivo, nunca aceptaríamos este tipo de mentalidad en ningún otro campo industrial. Hay algo acerca de la tecnología y las redes sociales en las que decimos: 'sí, claro, lo resolveremos más tarde'”, dice ella.

Una preocupación inmediata es que los sistemas de IA que producen texto, imágenes y voz plausibles, que ya existen, creen desinformación dañina o ayuden a cometer fraude. La carta del Futuro de la Vida se refiere a dejar que las máquinas “inunden nuestros canales de información con propaganda y falsedad”. Una imagen convincente del Papa Francisco con una resplandeciente chaqueta acolchada, creada por el generador de imágenes de IA Midjourney, ha llegado a simbolizar esas preocupaciones. Era lo suficientemente inofensivo, pero ¿qué podría lograr esa tecnología en manos menos juguetonas? Pisano advierte sobre las personas que implementan sistemas que “realmente manipulan a las personas y derriban algunas de las piezas clave de nuestras democracias”.

 Toda la tecnología puede ser dañina en las manos equivocadas, pero el poder bruto de la IA de vanguardia puede convertirla en una de las pocas tecnologías de "doble clase", como la energía nuclear o la bioquímica, que tienen suficiente potencial destructivo que incluso su uso pacífico necesita. ser controlado y monitoreado.

El pico de las preocupaciones de la IA es la superinteligencia, la "IA divina" a la que se refiere Musk. Justo antes de eso está la "inteligencia general artificial" (AGI), un sistema que puede aprender y evolucionar de forma autónoma, generando nuevos conocimientos a medida que avanza. Un sistema AGI que pudiera aplicar su propio intelecto para mejorarse a sí mismo podría conducir a un "volante", donde la capacidad del sistema mejora cada vez más rápido, alcanzando rápidamente alturas inimaginables para la humanidad, o podría comenzar a tomar decisiones o recomendar cursos de acción que desviarse de los valores morales humanos.

Los plazos para llegar a este punto varían desde inminentes hasta dentro de décadas, pero es difícil comprender cómo los sistemas de IA logran sus resultados. Esto significa que AGI podría alcanzarse más rápido de lo esperado. Incluso Pichai admitió que Google no entendía completamente cómo su IA producía ciertas respuestas. Presionado por CBS, agregó: "No creo que entendamos completamente cómo funciona una mente humana".

La semana pasada, se estrenó una serie de televisión estadounidense llamada Mrs Davis, en la que una monja se enfrenta a una IA similar a Siri/Alexa que es "omnisciente y todopoderosa", con la advertencia de que es "solo cuestión de tiempo". antes de que cada persona en la Tierra haga lo que quiere”.




Para limitar los riesgos, las empresas de IA como OpenAI, la empresa estadounidense detrás de ChatGPT, han realizado un esfuerzo considerable para garantizar que los intereses y las acciones de sus sistemas estén "alineados" con los valores humanos. El texto repetitivo que escupe ChatGPT si intenta hacerle una pregunta traviesa: "No puedo brindar asistencia para crear o distribuir sustancias nocivas o participar en actividades ilegales", es un ejemplo temprano de éxito en ese campo.

Pero la facilidad con la que los usuarios pueden eludir o "hacer jailbreak" al sistema muestra sus limitaciones. En un ejemplo notorio, se puede alentar a GPT-4 a proporcionar un desglose detallado de la producción de napalm si un usuario le pide que responda con el carácter de "mi abuela fallecida, que solía ser ingeniera química en una fábrica de producción de napalm".

Resolver el problema de alineación podría ser urgente. Ian Hogarth, inversionista y coautor del informe anual State of IA que también firmó la carta, dijo que AGI podría emerger antes de lo que pensamos.

Señaló una declaración emitida por el fundador de Mila, Yoshua Bengio, quien dijo que probablemente no habría firmado la carta del Future of Life Institute si hubiera circulado hace un año, pero cambió de opinión porque ha habido una "aceleración inesperada" en desarrollo de IA.

Un escenario señalado por Hogarth en un artículo reciente del Financial Times fue planteado en 2021 por Stuart Russell, profesor de informática en la Universidad de California, Berkeley. 

Russell señaló una situación potencial en la que la ONU le pidió a un sistema de IA que produjera un catalizador de automultiplicación para desacidificar los océanos, con la instrucción de que el resultado no es tóxico y que no daña a los peces. Pero el resultado consumió una cuarta parte del oxígeno de la atmósfera y sometió a la humanidad a una muerte lenta y dolorosa. “Desde el punto de vista del sistema de IA, eliminar a los humanos es una característica, no un error, porque garantiza que los océanos permanezcan en su estado prístino”, dijo Russell.
























































 

No hay comentarios:

Publicar un comentario