viernes, 31 de marzo de 2023

NI INTELIGENCIA NI ARTIFICIAL

 

¿El problema de la inteligencia artificial? No es ni artificial ni inteligente.

Evgeny Morozov



"ChatGPT extrae su fuerza del trabajo de humanos reales... En el mejor de los casos, esto es inteligencia no artificial". Fotografía: Pixsell/Alamy





Retiremos este término trillado: mientras que ChatGPT es bueno en la coincidencia de patrones, la mente humana hace mucho más

EIon Musk y el cofundador de Apple, Steve Wozniak, firmaron recientemente una carta en la que pedían una moratoria de seis meses en el desarrollo de sistemas de IA. El objetivo es dar tiempo a la sociedad para que se adapte a lo que los signatarios describen como un "verano de IA", que creen que en última instancia beneficiará a la humanidad, siempre que se establezcan las medidas de seguridad adecuadas. Estas barandillas incluyen protocolos de seguridad rigurosamente auditados.

Es un objetivo loable, pero hay una manera aún mejor de pasar estos seis meses: retirar la trillada etiqueta de “inteligencia artificial” del debate público. El término pertenece al mismo montón de chatarra de la historia que incluye “cortina de hierro”, “teoría del dominó” y “momento Sputnik”. Sobrevivió al final de la guerra fría debido a su atractivo para los entusiastas e inversores de la ciencia ficción. Podemos darnos el lujo de herir sus sentimientos.

En realidad, lo que hoy llamamos “inteligencia artificial” no es ni artificial ni inteligente. Los primeros sistemas de IA estaban fuertemente dominados por reglas y programas, por lo que al menos estaba justificado hablar de "artificialidad". Pero los de hoy, incluido el favorito de todos, ChatGPT, extraen su fuerza del trabajo de humanos reales: artistas, músicos, programadores y escritores cuya producción creativa y profesional ahora se apropia en nombre de salvar la civilización. En el mejor de los casos, esto es "inteligencia no artificial".

En cuanto a la parte de "inteligencia", los imperativos de la guerra fría que financiaron gran parte del trabajo inicial en IA dejaron una fuerte huella en cómo la entendemos. Estamos hablando del tipo de inteligencia que sería útil en una batalla. Por ejemplo, la fuerza de la IA moderna radica en la coincidencia de patrones. No es de extrañar dado que uno de los primeros usos militares de las redes neuronales, la tecnología detrás de ChatGPT, fue detectar barcos en fotografías aéreas.

Sin embargo, muchos críticos han señalado que la inteligencia no se trata solo de la coincidencia de patrones. Igualmente importante es la capacidad de hacer generalizaciones. La obra de arte Fountain de Marcel Duchamp de 1917 es un excelente ejemplo de esto. Antes de la obra de Duchamp, un urinario era solo un urinario. Pero, con un cambio de perspectiva, Duchamp lo convirtió en una obra de arte. En ese momento, estaba generalizando sobre el arte.

Cuando generalizamos, la emoción anula las clasificaciones arraigadas y aparentemente "racionales" de ideas y objetos cotidianos. Suspende las operaciones habituales, casi, de coincidencia de patrones. No es el tipo de cosas que quieres hacer en medio de una guerra.

La inteligencia humana no es unidimensional. Se basa en lo que el psicoanalista chileno del siglo XX Ignacio Matte Blanco llamó bi-lógica: una fusión de la lógica estática y atemporal del razonamiento formal y la lógica contextual y altamente dinámica de la emoción. El primero busca las diferencias; este último se apresura a borrarlos. La mente de Marcel Duchamp sabía que el urinario pertenecía a un baño; su corazón no. Bi-logic explica cómo reagrupamos las cosas mundanas de maneras novedosas y perspicaces. Todos hacemos esto, no solo Duchamp.

La IA nunca llegará allí porque las máquinas no pueden tener un sentido (en lugar de un mero conocimiento) del pasado, el presente y el futuro; de la historia, de la herida o de la nostalgia. Sin eso, no hay emoción, privando a la bi-lógica de uno de sus componentes. Así, las máquinas quedan atrapadas en la lógica formal singular. Así que ahí va la parte de "inteligencia".

ChatGPT tiene sus usos. Es un motor de predicción que también puede funcionar como una enciclopedia. Cuando se le preguntó qué tienen en común el botellero, la pala de nieve y el urinario, respondió correctamente que todos son objetos cotidianos que Duchamp convirtió en arte.

Pero cuando se le preguntó cuáles de los objetos de hoy en día Duchamp convertiría en arte, sugirió: teléfonos inteligentes, scooters electrónicos y máscaras faciales. No hay indicios de ninguna "inteligencia" genuina aquí. Es una máquina estadística bien administrada pero predecible.

El peligro de seguir usando el término “inteligencia artificial” es que corre el riesgo de convencernos de que el mundo funciona con una lógica singular: la del racionalismo altamente cognitivo y de sangre fría. Muchos en Silicon Valley ya creen eso, y están ocupados reconstruyendo el mundo informados por esa creencia.

Imágenes producidas por " inteligencia artificial "

Pero la razón por la que las herramientas como ChatGPT pueden hacer cualquier cosa, incluso remotamente creativa, es porque sus conjuntos de entrenamiento fueron producidos por humanos realmente existentes, con sus emociones complejas, ansiedades y todo. Si queremos que esa creatividad persista, también deberíamos financiar la producción de arte, ficción e historia, no solo los centros de datos y el aprendizaje automático.

Eso no es en absoluto donde las cosas apuntan ahora. El riesgo final de no retirar términos como "inteligencia artificial" es que harán invisible el trabajo creativo de la inteligencia, mientras que el mundo será más predecible y tonto.

Entonces, en lugar de pasar seis meses auditando los algoritmos mientras esperamos el "verano de la IA", también podríamos volver a leer El sueño de una noche de verano de Shakespeare. Eso hará mucho más para aumentar la inteligencia en nuestro mundo.




Evgeny Morozov es autor de varios libros sobre tecnología y política. 













No hay comentarios:

Publicar un comentario