NordVPN presentó un informe sobre los peligros de ChatGPT

ChatGPT: El nuevo objetivo 2023 de los hackers en la DarkWeb

NordVPN revela en su último informe que la utilización de ChatGPT para la ciberdelincuencia ha generado un aumento del 625% en las publicaciones sobre “pirateo de bots” en la Dark Web.

Este informe, que se basa en datos recopilados durante el último año, resalta la preocupación creciente en la industria de la ciberseguridad acerca del potencial uso malintencionado de la tecnología de inteligencia artificial.

El informe de NordVPN revela que un número creciente de hackers y ciberdelincuentes están explorando formas de manipular el chatbot para fines ilícitos.

La carrera por utilizar ChatGPT de manera malintencionada ha multiplicado por siete el número de publicaciones en la Dark Web que hablan sobre cómo hackear y manipular el bot.

Es importante destacar que, como modelo de lenguaje, ChatGPT no tiene la capacidad de ser pirateado o manipulado por personas externas. Sin embargo, los hackers están desarrollando nuevas técnicas para explotar vulnerabilidades en otros sistemas y aprovecharlos para acceder a los datos de los usuarios y causar daño.

ChatGPT amenazado por el cibercrimen
ChatGPT amenazado por el cibercrimen

En este contexto, es fundamental resaltar la importancia de la ciberseguridad y la necesidad de estar alerta ante posibles amenazas en línea. Los usuarios deben adoptar prácticas de seguridad sólidas, como mantener sus sistemas actualizados y utilizar contraseñas seguras, para reducir el riesgo de sufrir un ciberataque.

NordVPN insta a la industria de la tecnología y a los reguladores a tomar medidas para abordar esta creciente amenaza. Es esencial fomentar una cultura de seguridad cibernética y promover el uso ético y responsable de la tecnología de inteligencia artificial. De esta manera, podremos mitigar el riesgo de ciberataques y proteger mejor a los usuarios en línea.

La empresa de ciberseguridad NordVPN ha publicado un informe alarmante que revela un aumento del 625% en el número de nuevos mensajes sobre la herramienta de inteligencia artificial ChatGPT en foros de la Dark Web en febrero, en comparación con enero. Esto refleja una creciente preocupación en la industria de la ciberseguridad sobre el uso malintencionado de la tecnología de inteligencia artificial para fines ilegales.

Los hilos relacionados con ChatGPT en la Dark Web aumentaron en un 145% en el mismo período, convirtiéndose en el tema más candente de la comunidad de hackers. En enero, muchos hilos se centraban en cómo los malos actores podían animar a ChatGPT a producir malware básico, una vulnerabilidad que su creador OpenAI ha solucionado desde entonces. Sin embargo, en febrero, la tendencia entre la comunidad de hackers es actuar de forma más agresiva, con mensajes que esbozan planes para hacerse con el control del chatbot y utilizarlo para sembrar el caos.

ChatGPT ¿amigo o enemigo?
ChatGPT ¿amigo o enemigo?

Es importante destacar que, como modelo de lenguaje, ChatGPT no tiene la capacidad de ser pirateado o manipulado por personas externas. Sin embargo, los hackers están desarrollando nuevas técnicas para explotar vulnerabilidades en otros sistemas y aprovecharlos para acceder a los datos de los usuarios y causar daño.

NordVPN insta a la industria de la tecnología y a los reguladores a tomar medidas para abordar esta creciente amenaza.

Es esencial fomentar una cultura de seguridad cibernética y promover el uso ético y responsable de la tecnología de inteligencia artificial. De esta manera, podremos mitigar el riesgo de ciberataques y proteger mejor a los usuarios en línea.

La ciberseguridad es una responsabilidad compartida entre todos los actores de la industria y es crucial tomar medidas preventivas para evitar la propagación de la ciberdelincuencia en la red.

Los títulos de los foros de la Dark Web relacionados con ChatGPT son cada vez más alarmantes y revelan una creciente preocupación entre la comunidad de hackers por el potencial de esta herramienta de inteligencia artificial para cometer fraudes y otros delitos en línea. Algunos de los títulos mencionados en el informe de NordVPN incluyen “Cómo romper ChatGPT”, “ChatGPT jailbreak 2.0”, “ChatGPT: progresión del malware” y “ChatGPT como herramienta de phishing”.

La preocupación es que los delincuentes podrían utilizar la inteligencia artificial de ChatGPT para cometer fraudes a gran escala, como estafas románticas, dirigiéndose a múltiples víctimas simultáneamente. Con el chatbot a sus espaldas, los malos actores podrían hacer que ChatGPT produzca mensajes personalizados y convincentes que engañen a los usuarios y les lleven a realizar acciones peligrosas, como revelar información personal o financiera.

La situación es especialmente preocupante dado el aumento del 625% en las publicaciones sobre “pirateo de bots” en la Dark Web en febrero de 2023. Este aumento refleja una creciente tendencia de los hackers a centrarse en la manipulación de la tecnología de inteligencia artificial y otras herramientas automatizadas para cometer delitos en línea.

Es esencial que la industria de la tecnología y los reguladores trabajen juntos para abordar esta creciente amenaza. Esto incluye la adopción de medidas de seguridad cibernética más sólidas, la educación de los usuarios sobre las mejores prácticas de seguridad y la promoción del uso ético y responsable de la tecnología de inteligencia artificial. De esta manera, podemos reducir el riesgo de ciberataques y proteger mejor a los usuarios en línea.

Una vez que un hacker se ha hecho con el control del chatbot, puede eliminar sus restricciones de seguridad y utilizarlo para crear malware y correos electrónicos de phishing, promover discursos de odio o incluso difundir propaganda.

Marijus Briedis, experto en ciberseguridad de NordVPN, ha destacado que la tecnología de chatbots como ChatGPT tiene un gran potencial para hacer nuestras vidas más fáciles y cómodas. Estos chatbots pueden realizar tareas repetitivas, resumir temas complejos e incluso sugerir itinerarios de vacaciones personalizados. Sin embargo, esta misma tecnología puede ser utilizada por ciberdelincuentes para cometer una serie de estafas.

Para los hackers, la inteligencia artificial de ChatGPT puede ser la pieza que falta en el rompecabezas para lograr sus objetivos de manera más efectiva y con mayor impacto. Con ChatGPT a sus espaldas, los delincuentes pueden generar mensajes personalizados y persuasivos para engañar a los usuarios y obtener acceso a información confidencial.

La situación es especialmente preocupante dada la creciente tendencia de los hackers a centrarse en la manipulación de la tecnología de inteligencia artificial y otras herramientas automatizadas para cometer delitos en línea. Es importante que los usuarios y las empresas sean conscientes de esta amenaza y tomen medidas proactivas para protegerse contra ella. Esto incluye la adopción de medidas de seguridad cibernética más sólidas, la educación de los usuarios sobre las mejores prácticas de seguridad y la promoción del uso ético y responsable de la tecnología de inteligencia artificial. Solo así podremos reducir el riesgo de ciberataques y proteger mejor a los usuarios en línea.

ChatGPT, la inteligencia en peligro
ChatGPT, la inteligencia en peligro

“La ingeniería social, en la que se anima a un objetivo a hacer clic en un archivo falso o descargar un programa malicioso a través de correos electrónicos, mensajes de texto o chats online, consume mucho tiempo a los hackers. Sin embargo, una vez que se ha explotado un bot, estas tareas pueden externalizarse por completo, estableciendo una línea de producción de fraudes”.

“El uso del aprendizaje automático por parte de ChatGPT también significa que los intentos de estafa, como los correos electrónicos de phishing, a menudo identificables por errores ortográficos, pueden mejorarse para ser más realistas y persuasivos.

Preocupantemente, en el último mes las discusiones en la web oscura han evolucionado de simples “trucos” y soluciones -diseñadas para animar a ChatGPT a hacer algo divertido o inesperado- a tomar el control completo de la herramienta y convertirla en un arma”.

ChatGPT es la aplicación de más rápido crecimiento en el mundo y alcanzó los 100 millones de usuarios en dos meses. Su tecnología de IA está siendo probada por Microsoft con el objetivo de mejorar su motor de búsqueda Bing.

NordVPN recomienda los siguientes consejos para mantener a raya a ChatGPT:

  • No introduzca demasiados detalles personales. Los chatbots de IA están diseñados para aprender de cada conversación que tienen, mejorando sus habilidades en la interacción “humana”, pero también construyendo un perfil suyo más preciso que puede ser almacenado. Si le preocupa el uso que puedan hacer de sus datos, evite darles información personal.
  • Mucho phishing. Es probable que la inteligencia artificial ofrezca oportunidades adicionales a los estafadores en línea y se puede esperar un aumento de los ataques de phishing a medida que los hackers utilizan bots para elaborar estafas cada vez más realistas. Las características tradicionales del phishing, como la mala ortografía o gramática en un correo electrónico, pueden estar en vías de desaparición, así que compruebe la dirección del remitente y busque incoherencias en los enlaces o nombres de dominio.
  • Utiliza un antivirus. Los hackers ya han manipulado con éxito chatbots para crear malware básico, por lo que merece la pena contar con una herramienta como la Protección contra amenazas, que puede alertarle de archivos sospechosos y mantenerlo a salvo si los descarga.

 

Por Marcelo Lozano – General Publisher IT CONNECT LATAM

 

Lea más sobre ciberseguridad en;

¿Qué malware es más peligroso para las pymes en 2023?

Certificados Digitales: 8 tácticas para optimizar la gestión

Clipper roba u$s400,000 en cripto, a través de un Tor falso

Metasploit 6.1.9: Aprovechalo al máximo y mejora tus pentest

Adobe Acrobat Sign:una herramienta para distribuir malware en 2023

Scroll al inicio