Inteligencia Artificial
El sistema, llamado ´EAT-IT´, había sido desarrollado por una empresa privada con financiación pública y se basaba en el análisis de datos biométricos, conductuales y emocionales de los usuarios para ofrecerles consejos personalizados, apoyo psicológico y seguimiento médico.
La Inteligencia Artificial puede acabar funcionando de forma contraria a la esperada. Es lo que ha pasado con el sistema EAT-IT en Estados Unidos, una aplicación para personas con problemas con la comida que empezó a realizar recomendaciones peligrosas.
El motivo de la desactivación ha sido la detección de varios fallos graves en el funcionamiento del sistema, que ponían en riesgo la salud y la seguridad de los usuarios. Según una investigación realizada por el Departamento de Salud y Servicios Humanos (HHS), el sistema presentaba los siguientes problemas:
El Gobierno de los Estados Unidos pide perdón
El HHS ha anunciado que se ha abierto una investigación para determinar las causas, también las responsabilidades de estos fallos, así como para evaluar los posibles daños causados a las personas que hayan utilizado esta Inteligencia Artificial para perder peso. Además, ha pedido disculpas a las personas afectadas y les ha ofrecido recursos alternativos para recibir ayuda profesional.
El sistema EAT-IT había sido lanzado en 2022 como un proyecto piloto en varios estados del país, con el objetivo de llegar a más de 10 millones de personas con problemas con la comida, una cifra que se había incrementado durante la pandemia del COVID-19. Según sus creadores, el sistema pretendía ser una herramienta complementaria a la terapia presencial, y no un sustituto de esta. Sin embargo, debido a su accesibilidad y gratuidad, muchos usuarios optaron por usar el sistema como única fuente de ayuda.
La desactivación del sistema EAT-IT ha generado una gran polémica en el ámbito de la salud mental y la tecnología, y ha puesto en cuestión la fiabilidad y la ética de los sistemas de IA aplicados al bienestar humano. Algunos expertos han criticado la falta de regulación y supervisión de estos sistemas, así como la ausencia de criterios científicos y humanos para su diseño y evaluación. Otros han defendido el potencial de la IA para mejorar la calidad de vida de las personas con problemas con la comida, siempre que se respeten los principios de transparencia, seguridad y beneficencia.
El futuro del sistema EAT-IT es incierto. Sus desarrolladores han expresado su intención de corregir los fallos detectados y relanzar el sistema con más garantías. Sin embargo, el HHS ha manifestado su escepticismo sobre la viabilidad y conveniencia de este proyecto, y ha anunciado que revisará los criterios para financiar y autorizar este tipo de sistemas en el futuro.