Inteligencia Artificial
Elon Musk y un grupo de expertos en IA y ejecutivos de la industria están pidiendo una pausa de seis meses en el entrenamiento de la inteligencia artificial. Alegan riesgos potenciales para la sociedad y la humanidad.
“Hacemos un llamamiento a todos los laboratorios de Inteligencia Artificial para que pausen inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de Inteligencia Artificial más potentes que GPT-4”, así comienza la carta abierta titulada “Pausen los experimentos gigantes de Inteligencia Artificial” y termina pidiendo lo que han llamado un “verano de IA”: "Disfrutemos de una larga pausa veraniega de la Inteligencia Artificial y no nos apresuremos a caer sin estar preparados".
Ha sido publicada por el organismo sin ánimo de lucro Future of Life Institute y firmada por más de mil expertos, entre los que se incluyen Elon Musk; el cofundador de Apple, Steve Wozniak; el CEO de Stability AI, Emad Mostaque y los españoles Carles Sierra y Ramón López De Mantaras. Todo ellos piden una pausa en el desarrollo avanzado de Inteligencia Artificial.
Un "verano de IA"
“Los poderosos sistemas de inteligencia artificial deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”
“Los poderosos sistemas de inteligencia artificial deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, continúa la carta. En concreto quieren que se paralice hasta que se creen protocolos de seguridad auditados por expertos independientes. “Habiendo tenido éxito en la creación de poderosos sistemas de IA, ahora podemos disfrutar de un "verano de IA" en el que cosechamos las recompensas, diseñamos estos sistemas para el claro beneficio de todos y le damos a la sociedad la oportunidad de adaptarse”, así piden a los desarrolladores que trabajen con los legisladores y gobiernos para crear un marco legal sólido.
"Ni siquiera sus creadores pueden entender, predecir o controlarlo de forma fiable”.
Según los principios de la IA de Asilomar: “la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos correspondientes”, pero esta carta abierta reconoce que “desafortunadamente, este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie y ni siquiera sus creadores pueden entender, predecir o controlarlo de forma fiable”.
Riesgos potenciales para la sociedad y la civilización
La carta también detalla riesgos potenciales para la sociedad y la civilización: "¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?, se preguntan antes de terminar la misiva: "Tales decisiones no deben delegarse en líderes tecnológicos no electos".