sábado, 29 de noviembre de 2025

IA: HARRY Y MEGAN Y LOS SISTEMAS SUPERINTELIGENTES


Harry y Meghan se unen a los pioneros de la IA para pedir la prohibición de los sistemas superinteligentes

Dan Milmo.


















Los premios Nobel también firman una carta en la que piden que la tecnología ASI se prohíba hasta que haya consenso sobre si se puede desarrollar de forma "segura".

El duque y la duquesa de Sussex se han unido a los pioneros de la inteligencia artificial y a los premios Nobel para pedir la prohibición del desarrollo de sistemas de IA superinteligentes .

Harry y Meghan se encuentran entre los firmantes de una declaración que exige la prohibición del desarrollo de la superinteligencia. La superinteligencia artificial (ISA) es el término que se utiliza para los sistemas de IA, aún por desarrollar, que superan los niveles de inteligencia humana en todas las tareas cognitivas.
La declaración pide que la prohibición se mantenga hasta que haya un “amplio consenso científico” sobre el desarrollo de la ASI “de manera segura y controlada” y una vez que haya una “fuerte aceptación pública”.

También lo firmaron el pionero de la IA y premio Nobel Geoffrey Hinton, junto con su compañero "padrino" de la IA moderna, Yoshua Bengio; el cofundador de Apple, Steve Wozniak; el empresario británico Richard Branson; Susan Rice, exasesora de seguridad nacional de Estados Unidos durante el gobierno de Barack Obama; la expresidenta irlandesa Mary Robinson, y el autor y presentador británico Stephen Fry. Otros premios Nobel que firmaron fueron Beatrice Fihn, Frank Wilczek, John C. Mather y Daron Acemoğlu.

La declaración, dirigida a gobiernos, empresas tecnológicas y legisladores, fue organizada por el Future of Life Institute (FLI), un grupo de seguridad de IA con sede en EE. UU. que pidió una pausa en el desarrollo de sistemas de IA potentes en 2023, poco después de que la aparición de ChatGPT convirtiera a la IA en un tema de conversación político y público en todo el mundo.
En julio, Mark Zuckerberg, director ejecutivo de Meta, la empresa matriz de Facebook y uno de los principales desarrolladores de IA en EE. UU., afirmó que el desarrollo de la superinteligencia estaba "a la vista". Sin embargo, algunos expertos han señalado que hablar de IA refleja un posicionamiento competitivo entre las empresas tecnológicas que han invertido cientos de miles de millones de dólares en IA solo este año, en lugar de que el sector esté cerca de lograr avances técnicos.

No obstante, FLI afirma que la perspectiva de lograr la IA "en la próxima década" conlleva numerosas amenazas, que van desde la pérdida de empleos hasta la pérdida de libertades civiles, exponiendo a los países a riesgos de seguridad nacional e incluso amenazando a la humanidad con la extinción. Los temores existenciales sobre la IA se centran en la capacidad potencial de un sistema para evadir el control humano y las normas de seguridad, y desencadenar acciones contrarias a los intereses humanos.

FLI publicó una encuesta nacional en EE. UU. que muestra que aproximadamente tres cuartas partes de los estadounidenses desean una regulación sólida de la IA avanzada, y seis de cada diez creen que no se debe desarrollar una IA superhumana hasta que se demuestre que es segura o controlable. La encuesta, realizada a 2000 adultos estadounidenses, añadió que solo el 5 % apoya el statu quo de un desarrollo rápido y sin regulación.

Las principales empresas de IA en EE. UU., incluyendo a OpenAI, desarrollador de ChatGPT, y Google, han establecido como objetivo explícito de su trabajo el desarrollo de la inteligencia artificial general (IAG), el estado teórico en el que la IA iguala los niveles de inteligencia humana en la mayoría de las tareas cognitivas. Si bien esto está un nivel por debajo de la IAG, algunos expertos también advierten que podría conllevar un riesgo existencial, por ejemplo, al ser capaz de mejorar hasta alcanzar niveles de superinteligencia, a la vez que conlleva una amenaza implícita para el mercado laboral moderno .











































No hay comentarios:

Publicar un comentario