Opinión

Cómo ganar la batalla a la inteligencia artificial enemiga

El parendizaje automático, arma y peligro para la ciberseguridad

La inteligencia artificial (IA) ha recorrido un largo camino desde sus humildes comienzos. Aunque en principio se pensase que era una tecnología que debería encontrar su lugar en el mundo real, ahora es omnipresente a nuestro alrededor.

Está en nuestros móviles, en nuestros coches y en nuestros hogares. Puede influir en los anuncios que vemos, en las compras que hacemos y en qué contenidos vemos en televisión. También se está infiltrando rápidamente en nuestra vida laboral, especialmente en el mundo de la ciberseguridad.

El Instituto de Investigación Capgemini descubrió recientemente que una de cada cinco organizaciones usaba ciberseguridad basada en IA antes de 2019, y casi dos tercios planean implementarla durante 2020.

Se debe incluir formación continuada e integral a todos los empleados

Esta tecnología se usa tanto en la detección como en la respuesta a los ciberataques. Pero como con cualquier avance en tecnología, la IA no solo se usa con buenos fines. Igual que los equipos de ciberseguridad están utilizando el machine learning para mantener a raya las amenazas, los ciberdelincuentes usan la tecnología para aumentar la velocidad, la eficacia y el impacto de esas mismas amenazas.

Nos encontramos en una escalada armamentística. Una carrera que solo podremos ganar adoptando esta tecnología de rápida evolución como parte de una estrategia de defensa amplia y profunda.

La IA en las estrategias de defensa

No hay duda de que la industria de la ciberseguridad está convencida del valor de la IA. El mercado de la IA en ciberseguridad está actualmente valorado en 8.800 millones de dólares, y se espera que supere los 38.000 millones en 2026.

Lo que comenzó con casos de uso bastante simples pero efectivos, como el filtro de correo no deseado, se incluye actualmente en todas las funciones del equipo de ciberseguridad.

Hoy, la IA es una línea vital de defensa contra una amplia gama de amenazas, incluidos los ataques centrados en las personas como el phishing. Cada correo electrónico de phishing deja un rastro de datos. Estos datos se pueden recopilar y analizar mediante algoritmos de aprendizaje automático para calcular el riesgo de correos electrónicos potencialmente dañinos mediante la búsqueda de marcas distintivas de malware ya conocidas.

El nivel de análisis también puede extenderse a escanear archivos adjuntos y URLs dentro del cuerpo de un mensaje e incluso, gracias a un tipo de machine learning conocido como computer vision, a detectar sitios web que se hacen pasar por las páginas de inicio de sesión de los principales objetivos de phishing.

El mismo modelo de aprendizaje automático también se puede aplicar a otras amenazas comunes como el malware, que crece y evoluciona con el tiempo y, a menudo, causa daños considerables antes de que una organización sepa a qué se enfrenta.

Las estrategias de ciberseguridad que emplean IA pueden combatir este tipo de amenazas con mayor velocidad, confiando en datos y aprendizajes obtenidos de anteriores ataques similares para predecir y prevenir su propagación.

A medida que la tecnología continúa desarrollándose, también lo hará su prevalencia dentro de las estrategias de ciberseguridad. Más del 70% de las organizaciones está probando formas de implementar la IA en ciberseguridad para todo, desde la detección de intrusos y fraudes hasta la calificación de riesgos y el análisis del comportamiento del usuario frente a la máquina.

Quizás el mayor beneficio de la IA, sin embargo, sea su velocidad. Los algoritmos de aprendizaje automático pueden aplicar rápidamente técnicas complejas de reconocimiento de patrones para detectar y frustrar ataques mucho más rápido que cualquier humano

La IA como arma de ataque

Desafortunadamente, si bien la IA está haciendo grandes avances en la defensa contra amenazas comunes, también está facilitando mucho las cosas a los cibercriminales.

Veamos el ejemplo del phishing: la IA tiene el potencial de mejorar esta amenaza, aumentando la facilidad, la velocidad y la superficie de un ataque. Incluso los algoritmos de aprendizaje automático rudimentarios pueden monitorizar la correspondencia y las credenciales dentro de una cuenta comprometida. En poco tiempo, la IA podría imitar el estilo de correspondencia de la víctima para difundir correos electrónicos maliciosos por todas partes, repitiendo el ataque una y otra vez.

Cuando se trata de malware, la IA puede facilitar ataques altamente dirigidos e indetectables. La prueba de concepto de malware con tecnología de IA de IBM, DeepLocker, puede aprovechar los datos disponibles públicamente para ocultarse de las herramientas de ciberseguridad, permaneciendo inactiva hasta que alcanza su objetivo. Una vez que detecta el objetivo, ya sea a través del reconocimiento facial o de voz, ejecuta su carga maliciosa.

Es probable que la velocidad de la IA también sea de gran ayuda para los cibercriminales, como lo es para quienes trabajamos en la prevención de ataques. El aprendizaje automático podría implementarse para rodear y romper las ciberdefensas más rápido de lo que la mayoría de las herramientas de prevención o detección podrían soportar.

Y la IA no solo ampliará las amenazas existentes, sino que está creando otras nuevas. Las sofisticadas técnicas de aprendizaje automático pueden imitar y distorsionar el audio y el vídeo para facilitar los ciberataques. Esta tecnología, conocida como DeepFakes, ya la hemos visto en acción, como en el caso de un grupo desconocido de piratería que la utilizó para defraudar más de 200.000 libras a una filial de una compañía energética británica. El grupo se hizo pasar por el CEO de la empresa matriz para convencer al director de la filial de hacer una transferencia urgente a un proveedor húngaro. Convencido de que estaba hablando con su jefe, cumplió con la solicitud y el dinero fue robado con éxito.

A medida que la IA se vuelve cada vez más convincente en su capacidad de imitar la comunicación humana, es probable que los ataques de esta naturaleza se vuelvan cada vez más comunes.

Ganar la carrera armamentística

Cuando te encuentras en una escalada armamentística, la única forma de ganar es tomar la delantera. Para la industria de la ciberseguridad, esto no es nada nuevo. Si bien las tácticas y las tecnologías pueden haber cambiado, la batalla por mantenerse en cabeza ya dura décadas.

En este último enfrentamiento, para mantener el ritmo de las amenazas impulsadas por la IA, debemos adoptar la defensa impulsada por la misma IA. Dicho esto, la IA no debe considerarse la panacea universal. No hay duda de que la tecnología de aprendizaje automático es sofisticada e increíblemente poderosa, pero es solo una pieza más del rompecabezas.

Cuando se trata de defenderse con éxito contra los ciberataques modernos, no tenemos una bala en la recámara: contra IA o contra lo que sea. Una defensa fuerte debe ser profunda, multicapa y, a pesar del auge de las máquinas, centrada en las personas.

Independientemente de qué o quién esté atacando, en última instancia, son las personas y los trabajadores quienes están siendo atacados. Por eso, junto con las últimas herramientas y protecciones, las estrategias de ciberseguridad deben incluir formación continuada e integral de los empleados sobre métodos de ataque, detección y prevención de amenazas.

La IA es ahora una línea muy importante de ciberdefensa. Pero no puede ni debe reemplazar todas las técnicas anteriores. En cambio, esta debe incorporarse a herramientas cada vez más sofisticadas y diseñadas para proteger contra amenazas que evolucionan rápidamente.

comentariosforum0WhatsAppWhatsAppFacebookFacebookTwitterTwitterLinkedinlinkedin