Trend Viral
Andrés Visús, experto en Inteligencia Artificial, asegura que hay varios riegos vinculados a la accesibilidad de los datos que se esconden detrás de los deepfakes difundidas en redes sociales durante las últimas semanas.
Durante las últimas semanas, se han difundido en redes sociales las imágenes de celebridades convertidas en estudiantes americanos. Las fotografías parecen sacadas de un anuario de la década de los 90 aunque engañan: son deepfakes creadas con Inteligencia Artificial (IA).
¿Hay riesgos detrás de este y otros fenómenos virales? Un experto en IA comenta cuáles son algunos de los posibles peligros de los deepfakes creados por apps.
Andrés Visús, Director de Desarrollo de Negocio de Inteligencia Artificial en PredictLand, detalla que este tipo de apps "lo primero que te piden es subir varias fotos de tu cara y muchas veces piden distintos ángulos para así ser capaces de aprender bien y entender cuáles son los patrones de tu rostro", señala Visús. Cualquier persona puede generar esta foto, lo único que necesita son distintas imágenes de la cara. "Entonces la aplicación lo que está haciendo es reproducir una fotografía", continúa. "Por lo tanto, el resultado final es mucho más realista".
Sin embargo, para conseguir la imagen es necesario crear un registro en la app con usuario y contraseña. Desde el momento en que el internauta accede por primera vez a ella, sus datos están "en riesgo". "Lo primero que te está diciendo la aplicación es que des acceso a tu dispositivo y muchas veces no nos damos cuenta que le estás dando autorización", explica el experto.
La localización geográfica es uno de los datos que pueden ser compartidos en cualquier momento y vigilados desde cerca por aquellos que decidan vulnerar la privacidad del usuario. "Es ahí donde está el riesgo, que se creen deepfakes con fines fraudulentos para suplantar la identidad", señala Andrés Visús. El objetivo es tanto causar daño como simplemente aprovecharse de la imagen.
Posteriormente, los datos se venden a "terceras empresas" y sus fines, por consiguiente, son económicos. "Lo que se puede hacer son acciones comerciales o lícitas e ilícitas muy dirigidas a un target específico de población", asegura.
Andrés Visús dice que "realmente esto tiene un alto riesgo porque podemos entrar ya en un ambiente de propiedad intelectual, de vulneración de los derechos de imagen". El experto cuenta que, por ejemplo empresas como PredictLand, líder en servicios de Big Data, trabajan para hacer un buen uso de la tecnología.
Para evitar que se utilice la IA con fines ilícitos, la UE aprobó el pasado mes de mayo un proyecto de ley que controla la gestión de herramientas de la tecnología. La norma comunitaria pretende así luchar contra la desinformación y la falta de veracidad que hay detrás de imágenes como las que han creado reconocidos rostros del país en los últimos días.