Credenciales de ChatGPT comprometidas
- OSIPTEL
- 1 abril 2024
A medida que la tecnología continúa avanzando, la Inteligencia Artificial (IA) se ha convertido en una herramienta poderosa que ofrece muchas ventajas en diversos campos. Sin embargo, también surge una nueva preocupación: ¿qué sucede cuando los modelos de lenguaje como ChatGPT, diseñados para facilitar la comunicación y la interacción, son utilizados de manera maliciosa para comprometer la seguridad de las personas? Recientemente, se ha revelado que las credenciales de usuarios de ChatGPT se están vendiendo en la Dark Web, planteando serias implicaciones para la seguridad en línea y la privacidad de los usuarios. Estas credenciales incluyen nombres de usuario y contraseñas utilizados para acceder y utilizar el servicio de inteligencia artificial de OpenAI, el cual permite a los usuarios interactuar con modelos de lenguaje avanzados para generar texto de manera conversacional.
¿Cómo se comprometieron las credenciales?
Las credenciales comprometidas se encontraron en registros de ladrones de información asociados con el malware ladrón LummaC2, Raccoon y RedLine. Una vez en posesión de estas credenciales, los atacantes las pusieron a la venta en la Dark Web, donde pueden ser adquiridas por cualquier persona con intenciones maliciosas.
¿Cómo afecta a los usuarios?
El hecho de que las credenciales de usuarios de ChatGPT estén siendo vendidas en la Dark Web plantea serias implicaciones para la seguridad en línea y la privacidad de los usuarios. Estas implicaciones incluyen:
– Posible acceso no autorizado: Los atacantes que adquieren estas credenciales comprometidas pueden acceder ilegalmente a las cuentas de los usuarios y utilizarlas para diversos fines maliciosos, como el robo de información personal o la propagación de desinformación.
– Violación de la privacidad: La venta de credenciales comprometidas pone en riesgo la privacidad de los usuarios, ya que sus datos personales y conversaciones pueden ser comprometidos y utilizados en su contra.
– Aumento del phishing y los ataques de Ingeniería Social: La divulgación de este incidente puede llevar a un aumento en los ataques de phishing y la ingeniería social dirigidos a usuarios de ChatGPT y otros servicios en línea, ya que los atacantes buscan obtener más credenciales para vender en la Dark Web.
Medidas de protección
1. Educación en Seguridad Cibernética: Los usuarios deben ser conscientes de los riesgos de seguridad en línea, incluidos los ataques de phishing y la ingeniería social, y aprender a reconocer y evitar estos ataques.
2. Autenticación de Doble Factor (2FA): Habilitar la autenticación de doble factor siempre que sea posible puede proporcionar una capa adicional de seguridad al requerir una segunda forma de verificación para acceder a una cuenta.
3. Actualización regular de contraseñas: Es importante cambiar regularmente las contraseñas y utilizar contraseñas únicas y seguras para cada cuenta en línea.
4. Monitoreo de actividad de la cuenta: Los usuarios deben monitorear regularmente la actividad de sus cuentas en línea en busca de cualquier actividad sospechosa y tomar medidas inmediatas si se detecta actividad no autorizada.
Fuente: https://thehackernews.com/2024/03/over-225000-compromised-chatgpt.html
Deja un comentario