
El auge de ChatGPT en todo el mundo ha sido impresionante. Cada día, millones de personas lo utilizan para redactar correos, programar, crear imágenes, automatizar tareas y corregir textos. Sin embargo, un informe reciente de OpenAI —la empresa detrás de esta tecnología— advierte que no todos los usos han sido positivos.
La compañía reveló que desde el año pasado ha desmantelado 40 redes internacionales que empleaban ChatGPT con fines maliciosos, entre ellas grupos ubicados en China, Rusia, Corea y Camboya. Estas redes utilizaron el sistema para realizar ciberataques, estafas y campañas de desinformación, violando los términos de uso de la plataforma.
Aunque OpenAI prohíbe expresamente este tipo de prácticas, los expertos señalan que si un usuario logra manipular el sistema, puede generar mensajes, correos o anuncios falsos con apariencia legítima, lo que incrementa el riesgo de engaños digitales.
ChatGPT como herramienta de ciberdelincuencia
El informe detalla que en Corea algunos grupos usaron inteligencia artificial para crear malware y estructuras de control remoto. En otros países como Camboya, Birmania y Nigeria, se descubrieron intentos de ejecutar campañas fraudulentas dirigidas a usuarios comunes.
También se detectó el uso de ChatGPT en regímenes autoritarios, donde fue aprovechado para vigilar redes sociales y manipular la opinión pública mediante contenidos sesgados o desinformativos. Incluso se ha empleado para generar videos y publicaciones en plataformas como YouTube y TikTok, con el propósito de influir en la percepción de los usuarios.
Principales riesgos para los usuarios
Los especialistas en ciberseguridad destacan dos amenazas principales: el phishing y el malvertising.
-
El phishing consiste en enviar mensajes o correos falsos que aparentan ser legítimos, con el objetivo de robar datos personales o financieros.
-
El malvertising, por su parte, se refiere a anuncios engañosos que redirigen a sitios web maliciosos.
Estas prácticas pueden aprovechar las capacidades de la inteligencia artificial para hacer sus mensajes más creíbles y difíciles de detectar.
Un arma de doble filo
Paradójicamente, OpenAI afirma que ChatGPT también se utiliza tres veces más para detectar estafas que para cometerlas. Los usuarios pueden copiar mensajes sospechosos en el chat para recibir una evaluación sobre su autenticidad, identificando señales de alerta como errores de redacción, solicitudes extrañas de datos o enlaces no verificados.
En el ámbito empresarial, la inteligencia artificial permite revisar grandes volúmenes de correos y detectar patrones de fraude, contribuyendo así a la protección digital.
Uso responsable y precauciones necesarias
A pesar de los beneficios, los expertos recuerdan que ChatGPT no es infalible. Puede equivocarse al identificar amenazas o clasificar mensajes legítimos como peligrosos. Por eso, se recomienda siempre contrastar la información con fuentes confiables y mantener actualizado el software de seguridad.
Asimismo, los usuarios deben evitar compartir contraseñas, datos bancarios o información personal mediante sistemas automatizados. Si la plataforma llegara a ser vulnerada, estos datos podrían quedar expuestos.
En definitiva, la inteligencia artificial ofrece grandes ventajas, pero también nuevos riesgos que requieren precaución, educación digital y sentido crítico. El uso responsable de estas herramientas será determinante para que la tecnología siga siendo una aliada y no una amenaza.