Inteligencia Artificial

¿Es real la amenaza de la Inteligencia Artificial a la humanidad? "Nuestro tiempo restante se parece más a 5 años que a 50"

Este es el análisis del académico de la Universidad de Berkeley, Eliezer Yudkowsky, acerca de los efectos de la Inteligencia Artificial sobre la humanidad.

Inteligencia ArtificialPixabay/ Andoni Vidal

El investigador y académico de la Universidad de Berkeley, Eliezer Yudkowsky, ha realizado unas declaraciones que comprometerían de manera sobrenatural los efectos de laInteligencia Artificial. En sus palabras para el diario The Guardian, Yudkowsky explica que la humanidad podría estar viviendo sus últimos momentos. Plantea un escenario desolador, en el que el tiempo sería escaso, podríamos estar hablando de un margen de un par de años o diez antes de tener que enfrentar riesgos. De esta forma, se pone sobre la mesa cuál es el papel que ostenta realmente la Inteligencia Artificial en nuestras vidas y cuáles son los riesgos que la población no conoce.

Desde que a finales del año 2022 llegara ChatGPT a nuestra rutina, la Inteligencia Artificial se ha ido presentando cada vez más en nuestra rutina con diferentes acciones, como por ejemplo la creación de contenidos o la automatización de tareas, entre otras. A pesar de su incremento incesante en el día a día, hay figuras, como Elon Musk, que han mostrado su preocupación ante los posibles riesgos con los que la IA compromete a la humanidad, incluyendo la posibilidad de que la IA llegue a superar la inteligencia humana en un corto período de tiempo. Eliezer Yudkowsky incide en que la falta de conocimiento acerca de estos peligros es lo que podría acelerar a pasos agigantados nuestra desaparición.

¿Sobrevivirá la humanidad a la próxima década?

Yudkowsky se muestra tajante. En la entrevista al citado medio, preguntado pro el desarrollo de la IA y la humanidad, sentencia que "si me pones contra una pared y me obligas a poner probabilidades a las cosas, tengo la sensación de que nuestro tiempo restante actual se parece más a cinco años que a 50 años. Podrían ser dos años, podrían ser 10".

"Tenemos pocas posibilidades de que la humanidad sobreviva"

El motivo al que alude Yudkowsky de este problema es que los humanos no tienen conciencia real de los riesgos que presentan la IA. "La gente no es consciente del peligro hacia el que nos dirigimos, motivo por el cual tenemos pocas posibilidades de que la humanidad sobreviva", cuenta.

Entre sus recomendaciones, pide a los usuarios que cambien el punto de vista que tienen sobre esta tecnología: "No lo veas como un cerebro en una caja, sino como una civilización extraterrestre que piensa mil veces más rápido que nosotros", explica.

Aún así, la principal recomendación de Yudkowsky para poner fin a los avances de la IA es "cerrar las granjas de ordenadores donde se cultivan y entrenan las inteligencias artificiales", relata el diario The Guardian.

Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad de antena3noticias.com