Inteligencia Artificial: 8 puntos contra ataques de IA

Inteligencia Artificial

Inteligencia Artificial

Protección contra la soluciones impulsadas por inteligencia artificial para las amenazas cibernéticas de próxima generación

La penetración de las tecnologías de inteligencia artificial en el campo de la ciberseguridad es motivo de gran preocupación.

La penetración de las tecnologías de inteligencia artificial en la ciberseguridad es una preocupación importante.

Inteligencia Artificial

Por un lado, los ciberdefensores pueden utilizar las tecnologías de inteligencia artificial para mitigar ataques y neutralizar amenazas.

Sin embargo, una vez en manos de los intrusos, la tecnología de IA se convertirá en un arma peligrosa y representará una seria amenaza.

Según BCG, más del 90% de los profesionales de la ciberseguridad en los EE. UU. Y Japón esperan que los atacantes usen IA para llevar a cabo ataques.

Según el autor, tal escenario, de hecho, ya se ha convertido en una realidad.

La inteligencia artificial abre grandes oportunidades para los atacantes cibernéticos, permitiéndoles aumentar el poder de los ataques en términos de velocidad, volumen y complejidad a proporciones enormes. Según Alejandro Correa Bansen de Cyxtera, los ataques basados ​​en IA pueden eludir los sistemas de detección tradicionales en más del 15% de los casos, mientras que un ataque de phishing promedio (sin IA) puede tener éxito solo el 0,3% del tiempo. Ejemplo: #SNAP_R.

Defenderse contra la IA con IA: soluciones habilitadas para IA para las amenazas cibernéticas de próxima generación

Al abordar esta creciente amenaza, es importante tener en cuenta que se requieren soluciones basadas en IA para defenderse de los ciberataques asistidos por IA.

Es decir, cuando los deepfakes pueden engañar a los sistemas de seguridad, se debe utilizar una autenticación basada en inteligencia artificial más alta. Etc.

Las organizaciones recién comienzan a comprender los riesgos de la inteligencia artificial.

Las empresas deben actuar lo más rápido posible para proteger sus sistemas de este tipo de ataques.

WannaCry ha llevado los ataques cibernéticos a un nivel completamente nuevo de sofisticación. ¿Y ahora se ha agregado la IA? Esto no se puede permitir.

Riesgos de inteligencia artificial en ciberataques

1. Escalabilidad

BlackHat y la inteligencia artificial para ataques

En la conferencia Black Hat, los investiga-dores dieron a conocer un programa automatizado de spear phishing.

El spear phishing suele requerir mucho tiempo y esfuerzo; dependiendo de la escala del ataque.

Lo más probable es que un atacante tenga que recopilar una gran cantidad de información sobre sus objetivos para lograr una ingeniería social eficaz.

Los investigadores han demostrado cómo se pueden utilizar los macrodatos y el aprendizaje automático para automatizar y escalar los ataques de phishing dirigidos.

2. Haciéndose pasar por otra persona

Hace unos meses, los expertos del Dawes Center for Future Crime nombraron a los deepfakes como la amenaza cibernética más grave asociada con la inteligencia artificial.

No es difícil ver por qué.

Los deepfakes son una herramienta de desinformación, manipulación política y engaño.

Además, los atacantes pueden usar deepfakes para hacerse pasar por proxies, piratear el correo electrónico empresarial (phishing de voz) para el fraude financiero.

Y lo peor de todo, los ciberdelincuentes serán difíciles de detectar.

La función deepfake se burla de la idea misma de autenticación y biometría de voz.

Los deepfakes harán que las personas desconfíen de las pruebas sonoras y visuales, que durante mucho tiempo se han considerado fuentes fiables de pruebas.

3. Detección-evasión

Una forma en que se puede utilizar la IA para evadir la detección es mediante el envenenamiento de datos.

Los atacantes ponen en peligro los datos utilizados para entrenar y configurar sistemas inteligentes de detección de amenazas.

Por ejemplo, “jugando” con la configuración, pueden convencer al sistema de que los mensajes de spam son seguros.

El uso de IA permite a los atacantes actuar de forma más sigilosa y peligrosa.

La investigación muestra que la contaminación de solo el 3% de los datos puede aumentar la posibilidad de error hasta en un 91%.

La IA se puede utilizar tanto para evadir ataques como para adaptarse a los mecanismos de defensa.

4. Sofisticación

Arriba, se describió cómo la IA mejora los ataques.

Los ataques de inteligencia artificial son mucho peores que los ataques convencionales debido a la automatización y el aprendizaje automático.

La automatización supera el límite del esfuerzo humano, mientras que el aprendizaje automático obliga a los algoritmos de ataque a mejorar en función de la experiencia y a ser más eficientes, independientemente de si el ataque tuvo éxito.

La adaptabilidad significa que los ataques basados ​​en IA se volverán más fuertes y peligrosos a menos que se desarrollen contra-herramientas más fuertes para resistir.

Usar la inteligencia artificial para defen-derse de la IA

5. Aprendizaje automático para la detección de amenazas

Mientras protege contra la IA con IA, el aprendizaje automático ayuda a automatizar la detección de amenazas.

Esto es especialmente cierto en el caso de las nuevas amenazas contra las que los sistemas antivirus y los cortafuegos tradicionales no pueden protegerse.

El aprendizaje automático puede reducir entre un 50 y un 90% la cantidad de falsos positivos que son una amenaza grave en la detección de amenazas tradicional.

A diferencia de las herramientas de detección basadas en firmas de la generación anterior, el aprendizaje automático puede rastrear y registrar los patrones de uso de la red entre los empleados de una organización y alertar rápidamente a los ejecutivos cuando se detecta un comportamiento anómalo.

Según las estadísticas, el 93% de los SOC actualmente utilizan inteligencia artificial y herramientas de aprendizaje automático para detectar amenazas.

Con la proliferación de datos y la proliferación de ciberataques sofisticados, los profesionales de la seguridad necesitan fortalecer sus defensas y capacidades de detección con aprendizaje automático supervisado y no supervisado.

6. Mejora de la autenticación mediante IA

La autenticación débil es la forma más común de obtener acceso no autorizado a los puntos finales.

Como podemos ver en el ejemplo de deepfakes, incluso la autenticación biométrica ya no es una panacea.

La IA hace posible eludir sutilmente la seguridad, aumentando los requisitos para las herramientas de autenticación.

Las herramientas de autenticación basada en riesgos (RBA) utilizan biometría de comportamiento basada en inteligencia artificial para detectar actividades sospecho-sas y prevenir la piratería de endpoints.

Luego, la autenticación va más allá de la verificación del usuario a la analítica en tiempo real.

El RBA, también llamado inteligencia adaptativa, evalúa la información de ubicación, la dirección IP, la información del dispositivo, la privacidad de los datos y más.

Luego, se calcula la puntuación de riesgo y se llega a una conclusión sobre si el acceso está otorgado o restringido.

Por ejemplo, si una persona siempre inicia sesión en el sistema por la mañana los días de semana a través de una computadora en la oficina.

Una vez intenta iniciar sesión a través de un dispositivo móvil en un restaurante un fin de semana, esto podría ser una señal de compromiso y el sistema lo hará, responder apropiadamente a tal comportamiento no estándar.

Bajo el modelo de seguridad inteligente de RBA, no es suficiente que un atacante simplemente conozca la contraseña del sistema.

Además de esto, los sistemas de autenticación basados ​​en inteligencia artificial están comenzando a implementar la autenticación continua mientras continúan utilizando análisis de comportamiento.

En lugar de un inicio de sesión por sesión, que puede ser atacado a la mitad, el sistema se ejecuta constantemente en segundo plano, autenticando al usuario, analizando el entorno y el comportamiento del usuario en busca de patrones sospechosos.

7. Inteligencia Artificial en la prevención del phishing

Mejorar la detección de amenazas es una de las formas en que se utiliza la inteligencia artificial para prevenir ataques de phishing por correo electrónico, así como para mantener seguros los sitios de torrents para descargar contenido multimedia.

Todas estas cosas también se pueden hacer con un simple análisis de comportamiento.

Supongamos que recibió un correo electrónico supuestamente del director ejecutivo.

La IA analizará el mensaje para identificar patrones que no concuerden con la forma en que se comunica un CEO real.

AI analizará el estilo de escritura, la sintaxis y la elección de palabras para identificar inconsistencias y evitar caer en trampas, lo que permitirá al usuario navegar y descargar archivos de forma segura.

AI también puede escanear metadatos de correo electrónico para detectar firmas alteradas, incluso si el correo electrónico parece normal.

También escanea enlaces e imágenes para verificar su autenticidad.

A diferencia de las herramientas tradicio-nales anti-phishing, que bloquean los co-rreos electrónicos maliciosos mediante filtros que se pueden eludir fácilmente, la IA se opone directamente al núcleo mismo de los correos electrónicos de phishing: la ingeniería social.

Lo que hace que los ataques de ingeniería social sean difíciles de detectar es que son más psicológicos que tecnológicos.

Hasta ahora, el ingenio y el escepticismo humanos puros han sido las herramientas para superar estos ataques.

Ahora, la IA ha fortalecido la prevención, superando los límites de las capacidades humanas.

Al reconocer patrones que no son inmediatamente obvios para los humanos, la IA puede determinar si un correo electrónico es malicioso, incluso si no contiene enlaces o códigos sospechosos.

Y con la ayuda de la automatización, la IA puede hacer esto a gran escala.

8. Análisis predictivo

La principal ventaja de la IA en ciberseguridad es la capacidad de predecir ataques y crear protección incluso antes de que ocurran.

La IA ayudará a mantener una visibilidad completa de toda la infraestructura de red de una organización y analizará los puntos finales para detectar posibles vulnerabilidades.

En esta era de trabajo remoto y de usuarios que utilizan sus propios dispositivos para las necesidades laborales, cuando los departamentos de TI se enfrentan cada vez más a las dificultades para proteger los puntos finales, la IA puede hacer que su trabajo sea mucho más fácil.

La inteligencia artificial es la mejor opción contra las vulnerabilidades de día cero, lo que le permite construir rápidamente defensas inteligentes antes de que se exploten esas vulnerabilidades. La ciberseguridad impulsada por la inteligencia artificial se puede llamar algo así como el sistema inmunológico digital de una organización, muy similar a la forma en que los anticuerpos humanos atacan sustancias extrañas.

IT CONNECT

Información de valor para ejecutivos que toman decisiones de negocios

Conclusión

El año pasado, los investigadores australianos pasaron por alto el famoso antivirus Cylance AI al no usar el método generalmente aceptado de envenenar conjuntos de datos.

Simplemente estudiaron cómo funciona el antivirus y crearon una solución alternativa integral.

El estudio desafió la práctica de la computadora de determinar en qué confiar y planteó dudas sobre la efectividad del uso de la inteligencia artificial para la ciberseguridad.

Sin embargo, lo que es más importante, este estudio mostró la importancia del ser humano.

La inteligencia artificial no es una panacea ni una panacea; el control humano sigue siendo esencial para combatir las amenazas cibernéticas avanzadas.

Por lo tanto, sabemos que los esfuerzos humanos con herramientas de cibersegu-ridad convencionales por sí solos no son suficientes para superar la próxima gene-ración de amenazas cibernéticas basadas en inteligencia artificial.

No tenga miedo de usar la tecnología de IA, esta es la mejor manera de atacar y defenderse de la IA.

 

Por Marcelo Lozano – General Publisher IT Connect Latam

94 / 100