El de IA ha llegado para quedarse, y el uso de esta crece día a día de manera exponencial, sin embargo, muchos descuidan el impacto que puede tener sobre la seguridad digital. Bajo esta mirada, ESET advierte sobre los riesgos de compartir información crítica con ChatGPT y entrega recomendaciones clave para un uso más responsable.
¿Por qué ESET advierte sobre ciertas preguntas en ChatGPT?
ESET advierte sobre ciertas preguntas en ChatGPT porque muchos usuarios comparten datos personales o confidenciales creyendo que la interacción es segura. Estas plataformas no operan en ambientes cifrados, por lo que la información ingresada puede quedar expuesta si una cuenta es comprometida, o bien ser usada como entrenamiento y que posteriormente responda con base en ella.
«Al hablar de seguridad y privacidad, hay información que se debe evitar incluir al realizar consultas en ChatGPT. Por defecto, ChatGPT utiliza la información que se le proporciona para entrenar su modelo, a menos que se modifique esta configuración o se utilicen chats temporales».
Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica
Gutiérrez argumenta, además, que esto significa que, si una cuenta es comprometida por un tercero, cualquier dato confidencial ingresado durante las conversaciones podría quedar expuesto y ser utilizado con fines maliciosos:
«Si un ciberdelincuente consigue acceder a una cuenta de ChatGPT, tendrá acceso a toda la información que se comparta con la herramienta, incluidos los datos sensibles que se hayan introducido en las conversaciones».
Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica
¿Qué tipo de preguntas evitar?
1. Datos personales o confidenciales: Nunca compartir contraseñas, información bancaria, de salud o identificación. Aunque parezca una conversación privada, los datos pueden quedar expuestos si la cuenta es robada.
2. Información de empresas o proyectos privados: Evitar ingresar estrategias corporativas, informes financieros o datos de clientes. La IA no distingue entre información pública y privada, lo que puede exponer a una empresa a filtraciones.
3. Consultas que requieren asesoramiento profesional: ChatGPT puede entregar información general, pero no debe reemplazar a médicos, abogados ni asesores financieros. Tomar decisiones importantes con base en sus respuestas podría conllevar un riesgo de interpretación errónea, siempre se debe contrastar..
4. Preguntas sobre sentimientos, opiniones o preferencias: La IA no tiene emociones ni conciencia. Consultas como “¿Qué harías tú?” o “¿Qué opinas de mí?”, generan respuestas simuladas que pueden parecer empáticas, pero carecen de una base real.
5. Decisiones personales importantes: Para temas que involucran salud mental, cambios de carrera u otras decisiones de alto impacto, se recomienda hablar con personas de confianza o profesionales, ya que la IA no comprende contextos personales ni emocionales en profundidad.
«Al interactuar con herramientas como ChatGPT, destacan que es importante centrarse en la seguridad digital y el uso responsable. Entender qué preguntas no se deben hacer a una IA ayuda a preservar la privacidad, garantizar la exactitud de la información y proteger los datos sensibles».
Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica
También destacó el rol de la IA como herramienta de apoyo, siempre y cuando se use de forma informada y complementaria, sin delegar en ella decisiones críticas.
«Utilizar la IA como herramienta complementaria, en lugar de como fuente definitiva de respuestas, contribuye a tomar decisiones más informadas y seguras. Siguiendo las pautas anteriores, se podrá sacar el máximo partido a esta tecnología sin poner en riesgo tu seguridad ni la de los demás».
Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica.