OpenAI bloqueó redes que usaban inteligencia artificial para engañar a usuarios mediante falsos romances y supuestos servicios de recuperación legal.

Creada con IA como contexto de la publicación
OpenAI publicó recientemente un extenso informe que documenta sus acciones para interrumpir las campañas de actores de amenazas que intentan abusar de sus modelos de lenguaje para estafar. Dentro de este reporte de ciberseguridad, nos enfocaremos en dos esquemas de fraude diseñados de manera específica para engañar a los consumidores y robar dinero:
La firma detrás de ChatGPT detectó y bloqueó varias cuentas que estaban usando sus modelos de lenguaje para automatizar estafas financieras contra personas comunes en mensajería y redes sociales. En la práctica, esto permitía enviar mensajes y sostener conversaciones de forma masiva para engañar a más usuarios.
Según la compañía, estas redes mezclaban operadores humanos con chatbots para crear perfiles falsos y ganarse la confianza de las víctimas. Una vez que la relación estaba establecida, avanzaban hacia el objetivo final, quitarles dinero.
Una de las redes desarticuladas operaba desde Camboya y para estafar utilizaba la interfaz de programación de aplicaciones de OpenAI para alimentar un sistema automatizado de estafas sentimentales. Los atacantes perfilaban a sus víctimas mediante anuncios en redes sociales y luego las derivaban a Telegram, donde un programa de computadora generaba mensajes con lenguaje romántico y sexualmente explícito para convencerlas de realizar transferencias bancarias bajo la promesa de desbloquear beneficios VIP.
De acuerdo con el reporte de OpenAI, los estafadores usaban elementos falsos como:
Este método de suplantación funciona así:
El segundo esquema criminal bloqueado por OpenAI se enfocaba en personas que ya habían perdido dinero en fraudes anteriores. Los atacantes utilizaban los modelos de texto para redactar comunicaciones que imitaban el tono profesional de bufetes de abogados estadounidenses.
La firma destaca que suplantaron la identidad de la unidad de crímenes en internet del FBI para ofrecer falsos servicios de recuperación de fondos:
Para que el engaño pareciera real, operaban así:
El equipo de seguridad de la empresa señaló que enfrentar a estos grupos es complejo, porque ajustan sus tácticas con rapidez y cambian de canal cuando son detectados. Por eso, explicaron que no basta con bloquear cuentas; también se debe estudiar en detalle cómo difunden el engaño y por qué logra llegar a tantas personas.
El nivel de complejidad de estos engaños automatizados deja una lección simple: conviene moverse con cautela en el entorno digital. Como regla básica, desconfíe de promesas de dinero fácil o de vínculos afectivos repentinos en internet, porque si algo suena demasiado bueno para ser cierto, con frecuencia es un fraude.