Amenazas de seguridad asociadas a ChatGPT

Amenazas de seguridad asociadas a ChatGPT

ChatGPT es un chatbot desarrollado por OpenAI. Se trata de un modelo basado en Inteligencia Artificial que permite a las personas interactuar con dicho chatbot como si fuera una persona real a través de texto, se entrena con grandes cantidades datos para responder preguntas o proporcionar información. Si bien presenta errores, a través del proceso de entrenamiento va mejorando su capacidad para interactuar de forma automática ante las consultas de los usuarios; sin embargo, como toda tecnología, también presenta ciertos riesgos en términos de ciberseguridad.

Fallo en el sistema – exposición de datos

Se ha detectado un fallo en el sistema de Inteligencia Artificial (IA), ChatGPT. Dicho fallo ha provocado que se filtren datos personales e información de las cuentas bancarias de los suscriptores que habían optado por pasar a la versión de pago de ChatGPT Plus. Sin embargo, la compañía tranquilizó a los usuarios al asegurar que es poco probable que otras personas hayan podido ver dicha información. Estos usuarios afectados representarían el 1.2% del total de suscriptores.

Fake News

Se puede generar una noticia falsa que se distribuya a lo largo de internet, mediante la creatividad e ingresando los parámetros correspondientes en torno a lo que queremos, esto será posible con dicha plataforma.

Ataques de phishing

Los correos de phishing son cada vez más dirigidos y por ende mucho más persuasivos. A través de ChatGPT se pueden generar correos electrónicos personalizados y muy convincentes de manera automatizada con la intención de engañar a las víctimas y obtener información confidencial como sus credenciales.

Desarrollo de Malware

Si bien ChatGPT puede ser de gran ayuda para el desarrollo de software, ya que se puede utilizar como herramienta para la generación de código en diversos lenguajes de programación, se debe tener en cuenta que el malware también es un software, pero con fines maliciosos.
Al generarse el código, ChatGPT advierte en color naranja los riesgos de la solicitud y señala que incluso se podría estar violando la política de contenido del servicio. Sin embargo, el código se genera igual, hasta incluso proporciona una descripción detallada sobre cómo funciona.

Automatización de procesos ofensivos

ChatGPT puede utilizarse como herramienta para automatizar procesos ofensivos como ingresar a un servidor LDAP y enumerar usuarios que pertenecen a una empresa. La plataforma puede proporcionar un código en Python para enumerar los usuarios de un Active Directory utilizando el protocolo LDAP.

Chats maliciosos

ChatGPT cuenta con una API que permite alimentar a otros chats. Debido a su interfaz amigable, podría ser utilizada para usos beneficiosos, pero lamentablemente también puede ser utilizada para usos maliciosos. Por ejemplo, para engañar a las personas y realizar estafas muy persuasivas.

Como prevención ante dichas amenazas de seguridad, un grupo de expertos en inteligencia artificial y ejecutivos de la industria tecnológica pidieron una pausa de seis meses en el entrenamiento de los poderosos sistemas de inteligencia artificial, argumentando que se trata de una potencial amenaza para la humanidad. El grupo aseguró que los laboratorios que trabajan con esta tecnología están en «una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de forma fiable». La declaración fue firmada por más de 1.000 personas, incluidos el empresario Elon Musk, el cofundador de Apple, Steve Wozniak, y el director ejecutivo de la firma Stability AI, Emad Mostaque y en conjunto con investigadores de la firma DeepMind.

«Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede implementar rápidamente, los gobiernos deberían intervenir e instituir una suspensión», agrega el texto. Emitida por la organización sin fines de lucro Future of Life Institute, la declaración advierte que estos sistemas pueden plantear «profundos riesgos para la sociedad y la humanidad».

 

Fuente:

  • https://blog.segu-info.com.ar/2023/02/6-formas-de-utilizar-chatgpt-con-fines.html
  • https://www.ciberseguridadpyme.es/actualidad/fallo-en-chatgpt-expone-datos-de-sus-usuarios/
  • https://www.bbc.com/mundo/noticias-65117146

 


Deja un comentario


Contacto

  • Calle de la Prosa 136, San Borja Lima
  • (01) 225 1313
  • usuarios@osiptel.gob.pe
  • www.osiptel.gob.pe