martes, 30 de mayo de 2023

EL RIESGO DE LA INTELIGENCIA ARTIFICIAL

 

Declaración sobre el riesgo de IA

Geneva Abdul





"Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear", dijeron los expertos. Fotografía: S Decoret/Shutterstock









Cientos de líderes tecnológicos piden que el mundo trate a la IA como un peligro a la par de las pandemias y la guerra nuclear

Un grupo de destacados expertos en tecnología de todo el mundo advirtió que la tecnología de inteligencia artificial debe considerarse un riesgo social y priorizarse en la misma clase que las pandemias y las guerras nucleares.

La declaración*, firmada por cientos de ejecutivos y académicos, fue emitida por el Centro para la Seguridad de la IA hoy martes 30 de mayo en medio de crecientes preocupaciones sobre la regulación y los riesgos que la tecnología representa para la humanidad.

“Mitigar el riesgo de extinción por la IA debería ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, dijo el comunicado. Los signatarios incluyeron a los directores ejecutivos de DeepMind de Google, el desarrollador de ChatGPT OpenAI y la startup de IA Anthropic.


Los líderes mundiales y los expertos de la industria, como los de OpenAI, han pedido la regulación de la tecnología debido a los temores existenciales de que podría afectar significativamente los mercados laborales, dañar la salud de millones y convertir la desinformación, la discriminación y la suplantación de identidad. Este mes, el hombre a menudo promocionado como el padrino de la IA, Geoffrey Hinton, también signatario, renunció a Google citando su "riesgo existencial"
   
Si bien la carta publicada hoy no es la primera, es potencialmente la más impactante dada la gama más amplia de signatarios y su principal preocupación existencial, según Michael Osborne, profesor de aprendizaje automático en la Universidad de Oxford y cofundador de Mind. 
“Realmente es notable que tanta gente haya suscrito esta carta”, dijo. “Eso demuestra que hay una creciente comprensión entre los que trabajamos en IA de que los riesgos existenciales son una preocupación real”.

El potencial de AI para exacerbar los riesgos existenciales existentes, como las pandemias diseñadas y las carreras armamentistas militares, son preocupaciones que llevaron a Osborne a firmar la carta pública, junto con las nuevas amenazas existenciales de AI.
Los llamados para frenar las amenazas siguen al éxito de ChatGPT, que se lanzó en noviembre. El modelo de lenguaje ha sido ampliamente adoptado por millones de personas y ha avanzado rápidamente más allá de las predicciones de los mejor informados de la industria.

Osborne dijo: "Debido a que no entendemos muy bien la IA, existe la posibilidad de que pueda desempeñar un papel como una especie de nuevo organismo competidor en el planeta, por lo que una especie de especie invasora que hemos diseñado que podría desempeñar un papel devastador en nuestra supervivencia como especie”.





*https://www.safe.ai/statement-on-ai-risk
































No hay comentarios:

Publicar un comentario