Inteligencia artificial
El profesor Manel Sanromà, dedicado a las matemáticas aplicadas, alerta de que a la velocidad que avanza la inteligencia artificial podría llegar a ser tan peligroso como la energía nuclear.
La inteligencia artificial es una realidad que está a la orden del día. Numerosas aplicaciones basadas en la IA son de uso común entre la sociedad y es, precisamente, este rápido avance el que ha provocado que los científicos teman una realidad que puede estar más cerca de lo que muchos sospechan: que las máquinas superen al ser humano intelectualmente.
Cada vez más profesionales alertan de los peligros de la inteligencia artificial. Un ejemplo es el del profesor Manel Sanromà, dedicado a las matemáticas aplicadas, que alerta de que, a la velocidad que avanza esta tecnología, podría llegar a ser incluso tan peligrosa como la energía nuclear.
PREGUNTA: ¿Qué peligros tiene la inteligencia artificial?
RESPUESTA: De inmediato, son lo de toda revolución tecnológica. Cambios en las relaciones empresariales, laborales, sociales... Puede haber desaparición de trabajos, que antes los hacían los humanos y ahora los hacen las máquinas, pero nada diferente de lo que haya pasado en anteriores revoluciones Seguro que también se crean nuevos trabajos, algunos de los cuales ahora aún no nos podemos imaginar. Otro que está empezando a ocurrir, que es más peligroso, es la pérdida de la realidad.
"Puede haber peligros para la democracia, para las relaciones sociales"
Estamos empezando a ver 'fake news' en vídeo y si la inteligencia artificial se usa como aumentador del ruido en las redes sociales puede haber peligros para la democracia, para las relaciones sociales. Se puede ver un vídeo totalmente inventado de una persona que aparentemente está haciendo algo que no ha hecho. No solo en vídeo, también en foto.
A medio-largo plazo, el tema de que estamos produciendo máquinas que pueden sustituir a los humanos en casi todo. Llegará el momento en el que la inteligencia artificial general y una máquina sea capaz intelectualmente de hacer las mismas cosas que hacen los humanos, o mejor. Y ya no digamos en un futuro más lejano: mucho mejor, una inteligencia superior a la humana.
Esos son planteamientos que, hasta ahora, no nos habíamos tomado, entre comillas, muy enserio porque los veíamos muy lejanos en el tiempo, pero que pueden estar más cerca de lo que muchos pensaban hasta ahora.
P: ¿Cuál es la solución para que esto no ocurra? ¿Parar?
R: Yo firmé el manifiesto de los 1000, así se llama, con el se pretendía dar un toque de atención. Es algo que incluso los iniciadores del manifiesto sabían que no iba a ocurrir y no va a ocurrir.... El hecho de que miles de científicos y profesionales llamen a una moratoria, aún sabiendo que, probablemente, no va a ocurrir, es un golpe en la mesa para decir que está en juego algo muy peligroso potencialmente.
"Hay un potencial de riesgos nuevos, necesitamos decírselo a la sociedad"
A nivel de peligros, estamos hablando de algo tan peligroso como la energía nuclear. La inteligencia no humana puede no ayudar, sino competir e, incluso, superar a la inteligencia humana. Hay un potencial de riesgos nuevos, necesitamos decírselo a la sociedad para que sean conscientes, porque los que lo hacen no están dispuestos a parar.
P: ¿Cómo se podría detectar lo que se ha hecho con inteligencia artificial?
R: Se pueden crear marcas de agua para marcar que son hechos por inteligencia artificial, pero hecha la ley hecha la trampa. Con tecnología no lo vamos a controlar. Es tan importante como la energía nuclear y se controla con acuerdos globales, con limitaciones a nivel mundial. Hay que hacer algo de impacto mundial y que la sociedad pueda ayudar. Hay que tener acceso a los lugares donde se produce, para tener un control social y político. Si cae en manos de frívolos, malintencionados o ineptos pues puede ser peor que la energía nuclear.