Los cibercriminales, buscan vulnerar tu mente

Tú mente: el objetivo exclusivo 2024 de los cibercriminales

La ciberseguridad ya no es solo una cuestión de proteger sistemas y datos, sino también de proteger tu mente y tus pensamientos.

 

Era enero de 2024 cuando un empleado de finanzas de una multinacional con sede en Hong Kong recibió el correo electrónico del director financiero de la empresa en el Reino Unido.

El director financiero hablaba de realizar transacciones confidenciales, lo que parecía extraño, pero una videollamada con él aclararía la situación.

En la llamada participaron varias personas con altos cargos en la organización, así que el trabajador de Hong Kong siguió adelante y realizó 15 pagos, por un total de 200 millones de dólares de Hong Kong (25.6 millones de dólares estadounidenses), a cinco cuentas bancarias locales.

Los cibercriminales, buscan vulnerar tu mente
Los cibercriminales, buscan vulnerar tu mente

Las cosas se complicaron cuando se comunicaron las transacciones a la oficina central. Resultó que el director financiero nunca había solicitado las transferencias. Los interlocutores ni siquiera eran reales. Todo había sido preparado por un ciberdelincuente.

“Creo que el estafador descargó los vídeos con antelación y luego utilizó la inteligencia artificial para añadir voces falsas y utilizarlas en la videoconferencia”, declaró más tarde el superintendente jefe de la policía, Baron Chan Shun-ching, a la Radio Televisión de Hong Kong.

Este no es el único ejemplo de piratas informáticos que utilizan inteligencia artificial.

La policía de Hong Kong había encontrado al menos 20 casos en los que se había utilizado el aprendizaje automático para crear deepfakes y obtener dinero mediante el engaño, informó la cadena televisiva CNN.

Los expertos afirman que la tendencia apenas está empezando.

“Está escalando. Las bandas criminales están instalando centros de llamadas en todo el mundo. Los dirigen como si fueran empresas. Y están creciendo”, afirma el experto en seguridad de la información Todd Wade.

Según Luke Secrist, CEO de la empresa de hacking ético BuddoBot, “la sofisticación de los tipos de ataques y de los tipos de tecnología para ayudar a los ataques se está volviendo bastante espeluznante”.

Varios factores están impulsando la evolución de estas amenazas.

Uno de ellos es que la IA puede utilizarse para desarrollar estafas que eluden las defensas tradicionales y van directas al eslabón más débil de cualquier estrategia de ciberseguridad: los seres humanos.

“La ingeniería social está tomando una parte cada vez mayor de este panorama”, dice Nick Biasini, jefe de divulgación de Cisco Talos.

“Estamos empezando a ver cada vez más actores de amenazas que no son necesariamente técnicamente sofisticados, pero que son buenos manipulando a la gente”.

“Por eso tienen tanto éxito. Tienen mucho dinero. Y cuando tienes dinero, puedes añadir mucha sofisticación a tus trampas”.

Esta sofisticación es un segundo impulsor de las amenazas basadas en IA. En el último año, los avances en tecnología han progresado hasta un punto en el que cada vez es más difícil distinguir un deepfake del real.

Aunque solía ser fácil detectar una deepfake por patrones de habla extraños o manos extrañamente dibujadas, estas inconsistencias se están superando rápidamente. Y lo que es aún más preocupante, la IA ya puede crear deepfakes realistas a partir de sets de entrenamiento cada vez más pequeños.

“Hay muchos centros de llamadas que llaman sólo para grabar tu voz”, dice Secrist. “

Las llamadas que recibes, sin respuesta: están intentando grabarte diciendo ‘Hola, ¿quién es?’.

Sólo necesitan un fragmento”.

Según el experto en ciberseguridad Mark T. Hofmann, “treinta segundos de material en bruto –voz o vídeo– bastan ahora para crear clones deepfake con una calidad que ni siquiera tu mujer, tu marido o tus hijos podrían distinguir de ti. Ya nadie está a salvo”.

En muchos casos, un ciberdelincuente ni siquiera necesita llamarte.

Las redes sociales de la gente están llenas de material de audio y vídeo.

Además, “también se está produciendo una enorme cantidad de filtraciones de datos”, dice Wade.

Lo que la gente no sabe es que estas filtraciones de datos pueden incluir información personal, como la dirección, el número de teléfono, el correo electrónico, el número de la seguridad social, etc.

En los ataques de ingeniería social, pueden utilizar esta información para hacerse pasar por alguien con autoridad para realizar un trámite o transacción.

Una vez que han iniciado un ataque de ingeniería social, los ciberdelincuentes juegan con las debilidades mentales para conseguir lo que quieren.

Por ejemplo, pueden hacerte creer que han secuestrado a tu hijo o que tu trabajo está en peligro si no le haces un favor a tu jefe.

No hay mucho que las ciberdefensas estándar puedan hacer para evitarlo. Por eso, “cuando hablamos de ingeniería social y deepfakes, el firewall humano es más importante que nunca”, afirma Hofmann.

“Tenemos que informar a la gente sobre los nuevos riesgos, sin asustarla”.

Una buena regla general para el mundo de los deepfakes es desconfiar de cualquier petición fuera de lo común, venga de quien venga. Hofmann dice que las familias podrían acordar una palabra clave para usar por teléfono en caso de duda.

En entornos corporativos, mientras tanto, “hacer preguntas de seguridad o devolver la llamada al número real es un buen consejo”, dice Hofmann.

“Pueden robarte la voz, pero no los conocimientos”.

El experto de Cisco Talos, Biasini, está de acuerdo en que el conocimiento es la mejor forma de derrotar la amenaza deepfake, al menos hasta que la tecnología de autenticación encuentre una forma de distinguir las identidades reales de las falsas.

“Cuando encontremos este tipo de actividad, nos aseguraremos de que salga a la luz”, afirma.

“Una de las cosas más importantes que se pueden hacer es llevar este conocimiento al gran público, porque no todo el mundo es consciente de este tipo de amenazas”.

La sofisticación de las amenazas basadas en IA

La inteligencia artificial ha transformado el panorama de las amenazas cibernéticas, permitiendo a los delincuentes diseñar ataques más sofisticados y personalizados.

En el pasado, los intentos de phishing eran generalmente reconocibles por errores gramaticales o solicitudes inusuales, pero la IA ha elevado estos engaños a un nuevo nivel de precisión y persuasión.

Las deepfakes, que antes eran fácilmente detectables por anomalías visuales y auditivas, ahora son casi indistinguibles de la realidad.

Esto es especialmente alarmante en el contexto corporativo, donde una videollamada aparentemente genuina puede ser utilizada para autorizar transferencias de grandes sumas de dinero o acceder a información confidencial.

Además, los ciberdelincuentes están utilizando la inteligencia artificial para automatizar la recopilación de datos y la creación de perfiles detallados de sus objetivos.

Utilizando técnicas de scraping y análisis de big data, pueden construir un perfil exhaustivo de una persona, incluyendo sus hábitos de comunicación, conexiones sociales y comportamientos financieros.

Con esta información, pueden diseñar ataques de ingeniería social altamente personalizados que son mucho más difíciles de detectar y prevenir.

El impacto psicológico de los ataques de ingeniería social

Uno de los aspectos más preocupantes de los ataques basados en ingeniería social es su impacto psicológico.

A diferencia de los ataques cibernéticos tradicionales, que pueden ser mitigados con firewalls y software antivirus, los ataques de ingeniería social explotan la confianza y las emociones humanas.

Esto puede tener efectos devastadores, tanto a nivel individual como organizacional.

Por ejemplo, los empleados que caen víctimas de estos ataques pueden experimentar sentimientos de culpa y vergüenza, lo que puede afectar su bienestar mental y su desempeño laboral.

Los cibercriminales, buscan vulnerar tu mente
Los cibercriminales, buscan vulnerar tu mente

En el peor de los casos, pueden sentirse tan abrumados que deciden dejar sus trabajos, lo que puede resultar en la pérdida de talento valioso para la organización.

A nivel organizacional, estos ataques pueden causar una pérdida significativa de confianza tanto interna como externamente.

Los clientes y socios pueden perder la fe en la capacidad de una empresa para proteger su información, lo que puede resultar en una pérdida de negocio y una reputación dañada.

Además, el costo financiero de mitigar estos ataques y recuperar los fondos perdidos puede ser astronómico.

El papel de la concienciación y la educación

Dado que los ataques basados en ingeniería social y deepfakes son cada vez más sofisticados, la concienciación y la educación se han vuelto cruciales en la lucha contra estas amenazas.

Las empresas deben invertir en programas de formación continua para sus empleados, enseñándoles a reconocer las señales de un ataque de ingeniería social y a actuar con cautela ante cualquier solicitud inusual.

Además, es esencial que las organizaciones fomenten una cultura de seguridad donde los empleados se sientan cómodos reportando cualquier actividad sospechosa sin miedo a represalias.

Esto puede lograrse mediante la implementación de políticas claras y el uso de simulaciones de phishing para evaluar y mejorar continuamente la capacidad de respuesta de los empleados.

La tecnología como aliada

Mientras la educación y la concienciación son vitales, la tecnología también juega un papel crucial en la defensa contra los ataques basados en IA.

Las soluciones avanzadas de ciberseguridad que utilizan inteligencia artificial y aprendizaje automático pueden detectar patrones de comportamiento anómalos y señales de deepfakes en tiempo real, proporcionando una capa adicional de protección.

Por ejemplo, los sistemas de autenticación multifactor (MFA) pueden dificultar que los ciberdelincuentes accedan a cuentas sensibles, incluso si logran obtener credenciales de inicio de sesión.

Además, las herramientas de análisis de comportamiento del usuario y la entidad (UEBA) pueden identificar actividades sospechosas y alertar a los equipos de seguridad antes de que se produzca un daño significativo.

El futuro de la ciberseguridad en la era de la IA

A medida que la tecnología de inteligencia artificial continúa avanzando, también lo hacen las tácticas de los ciberdelincuentes.

Es probable que en el futuro veamos ataques aún más sofisticados y personalizados, que explotarán nuevas vulnerabilidades y utilizarán técnicas innovadoras para evadir la detección.

Para mantenerse a la vanguardia de estas amenazas, es fundamental que las organizaciones adopten un enfoque proactivo y multifacético de la ciberseguridad.

Esto incluye no solo la implementación de tecnologías avanzadas y la formación continua de los empleados, sino también la colaboración con otros actores del sector y la participación en iniciativas globales de intercambio de información sobre amenazas.

La amenaza de los ataques basados en inteligencia artificial y ingeniería social es real y está creciendo rápidamente.

Los ciberdelincuentes han identificado el eslabón más débil en las estrategias de ciberseguridad: los seres humanos, y están explotando esta vulnerabilidad con una eficacia aterradora.

Para protegerse contra estos ataques, las organizaciones deben adoptar un enfoque holístico que combine tecnología avanzada, educación y concienciación, y una cultura de seguridad robusta.

Solo a través de estos esfuerzos combinados podremos defendernos eficazmente contra las amenazas emergentes y proteger tanto a las personas como a las empresas de los peligros de la era digital.

La ciberseguridad ya no es solo una cuestión de proteger sistemas y datos, sino también de proteger mentes y personas.

Enfrentémonos a esta nueva realidad con determinación y preparación, para asegurar un futuro digital más seguro para todos.

Más allá del firewall: la nueva frontera de la ciberseguridad

Los ciberdelincuentes han descubierto que el camino hacia el éxito no siempre requiere romper los muros digitales de una organización.

En su lugar, están aprovechando la confianza y las emociones humanas para acceder a información valiosa y lograr sus objetivos.

Esta táctica ha llevado a un aumento en la sofisticación y efectividad de los ataques de ingeniería social.

Un caso reciente ilustra cómo los ciberdelincuentes están perfeccionando estas técnicas.

En abril de 2024, una empresa de tecnología en Silicon Valley fue víctima de un ataque que combinaba ingeniería social con deepfakes.

Los atacantes enviaron correos electrónicos personalizados a varios empleados, fingiendo ser el CEO de la empresa.

Los correos incluían enlaces a videollamadas en las que aparecía un deepfake del CEO, solicitando transferencias urgentes de fondos para un proyecto secreto.

A pesar de que algunos empleados se mostraron escépticos, la convincente naturaleza del deepfake y la urgencia de la solicitud llevaron a que se realizaran transferencias por un total de 10 millones de dólares antes de que el fraude fuera descubierto.

La empresa se vio obligada a emprender una revisión exhaustiva de sus protocolos de seguridad y a implementar nuevas medidas para evitar que algo similar volviera a ocurrir.

La evolución de los deepfakes y su impacto en la seguridad

La tecnología de deepfakes ha avanzado rápidamente en los últimos años, facilitada por el aumento en la potencia de procesamiento y la disponibilidad de grandes conjuntos de datos para el entrenamiento de modelos de IA.

Los deepfakes de hoy en día pueden replicar no solo la apariencia de una persona, sino también sus patrones de habla y gestos, haciendo que las falsificaciones sean extremadamente difíciles de detectar.

Esta evolución ha sido aprovechada por los ciberdelincuentes para crear escenarios de engaño cada vez más creíbles.

Los deepfakes se han utilizado en una variedad de contextos, desde suplantar a ejecutivos en videollamadas hasta crear contenido comprometedor para chantaje.

La capacidad de los deepfakes para manipular la percepción de la realidad representa una amenaza significativa para la seguridad tanto en el ámbito corporativo como personal.

La ingeniería social: el arma psicológica de los ciberdelincuentes

La ingeniería social se basa en la manipulación psicológica para engañar a las personas y hacer que realicen acciones o divulguen información confidencial.

A diferencia de los ataques cibernéticos tradicionales que se enfocan en vulnerabilidades técnicas, la ingeniería social explota las debilidades humanas, como la confianza, el miedo y la curiosidad.

Un ejemplo notable de ingeniería social es el “vishing”, o phishing por voz.

En este tipo de ataque, los ciberdelincuentes llaman a sus víctimas, haciéndose pasar por representantes de instituciones legítimas, como bancos o agencias gubernamentales, para convencerlas de que revelen información sensible.

Con la ayuda de la tecnología de deepfakes, estos ataques se han vuelto aún más convincentes, ya que los delincuentes pueden usar voces falsificadas de personas conocidas por la víctima.

El papel de la formación y la concienciación en la lucha contra la ingeniería social

Dada la creciente sofisticación de los ataques de ingeniería social y deepfakes, la formación y la concienciación se han vuelto más importantes que nunca.

Las organizaciones deben asegurarse de que sus empleados estén equipados con el conocimiento y las herramientas necesarias para reconocer y responder a estos ataques.

Los programas de formación deben incluir sesiones regulares sobre las últimas tácticas de ingeniería social y cómo detectarlas.

Además, las simulaciones de ataques pueden ser una herramienta eficaz para evaluar y mejorar la preparación de los empleados.

Estas simulaciones deben diseñarse para imitar escenarios del mundo real y proporcionar retroalimentación constructiva para ayudar a los empleados a mejorar su capacidad de respuesta.

Tecnologías emergentes para combatir deepfakes y ingeniería social

Además de la formación y la concienciación, la tecnología también juega un papel crucial en la lucha contra los ataques de ingeniería social y deepfakes.

Las soluciones de ciberseguridad basadas en inteligencia artificial y aprendizaje automático pueden ayudar a identificar patrones de comportamiento anómalos y detectar intentos de suplantación de identidad en tiempo real.

Una de las tecnologías emergentes más prometedoras es la autenticación biométrica avanzada.

Esta tecnología puede utilizar múltiples factores de autenticación, como huellas dactilares, reconocimiento facial y análisis de voz, para verificar la identidad de una persona.

Al combinar estas técnicas con algoritmos de detección de deepfakes, las organizaciones pueden aumentar significativamente su capacidad para prevenir el acceso no autorizado.

Otra área de innovación es el uso de análisis de comportamiento del usuario (UBA) y análisis de comportamiento de la entidad (UEBA).

Estas herramientas pueden monitorear el comportamiento de los usuarios y entidades en una red para identificar actividades sospechosas que podrían indicar un ataque en curso.

Al detectar estos patrones temprano, las organizaciones pueden tomar medidas preventivas antes de que se produzca un daño significativo.

La importancia de una respuesta rápida y efectiva

A pesar de las mejores medidas de prevención, es inevitable que algunos ataques logren eludir las defensas.

Por lo tanto, es esencial que las organizaciones tengan un plan de respuesta a incidentes robusto y bien definido.

Este plan debe incluir procedimientos claros para identificar, contener y remediar los ataques, así como para comunicarse con las partes afectadas.

La rapidez en la respuesta puede marcar la diferencia entre un incidente menor y una crisis significativa.

Las organizaciones deben realizar ejercicios de simulación de incidentes regularmente para asegurarse de que todos los miembros del equipo sepan qué hacer en caso de un ataque.

Además, deben establecer canales de comunicación claros y efectivos para informar a los empleados, clientes y socios sobre la situación y las medidas que se están tomando.

El papel de la colaboración en la ciberseguridad

Los cibercriminales, buscan vulnerar tu mente
Los cibercriminales, buscan vulnerar tu mente

La lucha contra los ataques de ingeniería social y deepfakes no puede ser llevada a cabo por una sola organización. La colaboración entre diferentes actores del sector, incluidos gobiernos, empresas y proveedores de tecnología, es crucial para enfrentar estas amenazas de manera efectiva.

Las iniciativas de intercambio de información sobre amenazas (Threat Intelligence Sharing) permiten a las organizaciones compartir datos sobre tácticas, técnicas y procedimientos utilizados por los ciberdelincuentes.

Esta colaboración puede ayudar a identificar patrones comunes y desarrollar estrategias de defensa más efectivas.

Además, los estándares y regulaciones internacionales pueden proporcionar un marco para la protección de datos y la ciberseguridad.

La cooperación entre países es esencial para abordar las amenazas globales y garantizar un entorno digital más seguro para todos.

El futuro de la ciberseguridad en un mundo dominado por la IA

A medida que la inteligencia artificial continúa evolucionando, también lo harán las tácticas de los ciberdelincuentes.

Es probable que veamos un aumento en el uso de la IA para automatizar y perfeccionar los ataques, así como para desarrollar nuevas formas de evadir las defensas.

Sin embargo, la IA también ofrece oportunidades significativas para mejorar la ciberseguridad.

Los sistemas de IA pueden analizar grandes volúmenes de datos en tiempo real, identificar amenazas emergentes y responder de manera rápida y efectiva.

Al aprovechar estas capacidades, las organizaciones pueden mejorar su resiliencia frente a los ataques y proteger mejor sus activos y datos.

Para aprovechar al máximo las oportunidades que ofrece la IA, las organizaciones deben adoptar un enfoque proactivo y adaptable.

Esto implica no solo invertir en tecnologías avanzadas, sino también en la formación continua de los empleados y en la creación de una cultura de seguridad sólida.

Reflexión

La amenaza de los ataques basados en inteligencia artificial y ingeniería social es real y está creciendo rápidamente. Los ciberdelincuentes han identificado el eslabón más débil en las estrategias de ciberseguridad: los seres humanos, y están explotando esta vulnerabilidad con una eficacia aterradora.

Para protegerse contra estos ataques, las organizaciones deben adoptar un enfoque holístico que combine tecnología avanzada, educación y concienciación, y una cultura de seguridad robusta.

Solo a través de estos esfuerzos combinados podremos defendernos eficazmente contra las amenazas emergentes y proteger tanto a las personas como a las empresas de los peligros de la era digital.

La ciberseguridad ya no es solo una cuestión de proteger sistemas y datos, sino también de proteger mentes y personas. Enfrentémonos a esta nueva realidad con determinación y preparación, para asegurar un futuro digital más seguro para todos.

Por Jason Deign, Redactor de Cisco

 

Lea más sobre Ciberseguridad en;

Ransomware of Things: La Amenaza para las Empresas 2024

Ciberseguridad 2025: A dónde podes formarte gratis?

Windows: Kaspersky revela nueva vulnerabilidad de día 0

Infraestructura y Ciberseguridad: El Impacto de la IA en estas 2 áreas

APT42: cibercriminales patrocinados por IRAN, se hacen pasar por periodistas

 

tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, 

tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, tu mente, 

Scroll al inicio