IA
Muchos usuarios recurren hoy a la Inteligencia Artificial como ChatGPT para resolver dudas delicadas o gestionar situaciones que antes se consultaban a profesionales. Este cambio ha despertado la preocupación de los expertos en ciberseguridad ya que compartir datos sensibles o formular ciertas preguntas puede exponerte a riesgos innecesarios.
La Inteligencia Artificial (IA) se ha integrado tanto en la vida cotidiana hasta el punto de que muchas personas la utilizan para cuestiones muy personales, como pedir orientación emocional (como si ChatGPT fuera un psicólogo) o buscar respuestas que antes se consultaban a profesionales.
Este cambio de hábitos ha hecho que los expertos en ciberseguridad pongan el foco en cómo interactuamos con estas herramientas especialmente cuando se realizan preguntas que incluyen información sensible o que puedan ser la antesala de posibles delitos. Ciertas consultas no solo pueden comprometer nuestra libertad, sino que también abrir la puerta a usos indebidos o peligrosos. Para evitar eso te contamos qué no debes preguntarle a un chatbot de IA como ChatGPT.
Apunta estas cuestiones y procura evitarlas cuando hables con tu herramienta de IA de cabecera:
Está claro que el mal uso de las herramientas no es algo aislado. Más del 50% de los intentos de manipularla están relacionados con actividades ilícitas.
Otro dato que preocupa es el volumen de información personal que los usuarios comparten sin ser conscientes de los riesgos. Los especialistas insisten: la mejor protección es la prevención: evita preguntas comprometidas, no compartas información sensible y utiliza la IA dentro de los límites éticos.
Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad en nuestro perfil de Google.