¿Deberíamos temer una guerra de IA entre piratas y editores ?

El aprendizaje automático profundo, o «Aprendizaje profundo», está alterando muchos sectores económicos. Por lo tanto, no es sorprendente que esta tecnología también aparezca con los editores de antivirus. La detección de malware es sobre todo un problema de clasificación al que Deep Learning puede proporcionar nuevas respuestas.

Con motivo de la conferencia CyberSec & amp; AI, que tuvo lugar en Praga en octubre pasado, el editor Avast detalló algunas técnicas que ya están en producción. Por lo tanto, su módulo de protección web Shield se basa en el transporte de redes neuronales para clasificar las 70,000 URL a las que van sus 400 millones de clientes cada segundo y, si es necesario, detectar las que son maliciosas.

Una primera red de neuronas intentará detectar anomalías en la dirección misma, tanto en términos de su estructura como del diseño de las letras. Una segunda red de neuronas tomará una copia de pantalla del sitio y analizará ciertas partes de la imagen y la comparará con los sitios legítimos existentes. «Si la página parece una página en el sitio de Apple, pero la dirección no es parte de su dominio, entonces es una URL maliciosa» , explica Rajarshi Gupta, vicepresidente a cargo de la inteligencia artificial.

El aprendizaje automático también se utiliza en el módulo Behavior Shield para detectar mejor los ataques de red en los clientes.

Gracias a sus ollas de miel (sorte de lure), el editor tiene una lista negra de alrededor de 2 millones de direcciones IP de servidores de control y control. «Pero es difícil integrar una lista negra de este tipo localmente con nuestros clientes. Una red neuronal nos permite seleccionar solo los servidores C & amp; C (botnets) el más virulento.

Al final, obtenemos una lista de 200,000 direcciones que cubren el 95% de los ataques ”, continúa Rajarshi Gupta. Se han capacitado otras redes neuronales para detectar modos operativos, como ataques de fuerza bruta, o tráfico sospechoso. Esto es útil si la dirección IP utilizada por los piratas informáticos es completamente desconocida.

Pero el campo de la seguridad informática también tiene sus dificultades. Por lo tanto, los editores de antivirus apenas pueden confiar en los datos etiquetados, que es un ingrediente fundamental para impulsar un algoritmo y crear un modelo.

«No se puede hacer el reconocimiento de imágenes y tener personas que digan» esto es malware «o» esto no es malware». Hay demasiados datos para analizar y muy pocas personas calificadas capaces de hacerlo ” explica Rajarshi Gupta. Es por eso que los editores intentarán generar las etiquetas indirectamente, ya sea con métodos estadísticos o mediante otros procesos.

También disponible en video

Por lo tanto, Avast almacena todas las URL visitadas por sus clientes en un gráfico gigantesco. Cuando los clientes se encuentran infectados, les permite verificar la URL que está detrás de este ataque y, por lo tanto, crear una etiqueta que alimente el modelo Web Shield.

AI, una tecnología con pies de arcilla

Desafortunadamente, los modelos de clasificación obtenidos por aprendizaje automático no son inmunes a los errores. Peor: los investigadores en inteligencia artificial han demostrado en los últimos años que es posible identificar este margen de error e inyectar datos en un archivo para bloquear sistemáticamente el clasificador.

Esto se llama «ataques contenciosos. En el pasado, ya han engañado los sistemas de reconocimiento de imágenes, incluidos los de automóviles independientes como el Tesla. En algunos casos, incluso es posible crear una imagen que haga que el sistema se bloquee cuando el cambio es imperceptible a simple vista.

¿Pero también podemos considerar este tipo de ataques en el campo del malware ? La respuesta es sí. Además, los piratas ya lo hacen empíricamente. Cuando modifican ligeramente los textos de sus correos electrónicos de phishing o el código de su malware, buscan pasar entre las grietas de la IA.

La modificación del malware es obviamente más difícil que cambiar algunos píxeles en una imagen, porque el código ya no funciona. «Las técnicas de escape generalmente utilizadas son el relleno con datos aleatorios, agregando archivos benignos, compresión, cifrado o la inyección de funciones maliciosas en un archivo legítimo» explica Sadia Afroz, investigador en la Universidad de Berkeley.

En enero pasado, un grupo de investigadores italianos demostró que MalConv, una red neuronal especializada en la detección de malware en Windows, podría ser sistemáticamente engañado agregando solo unas pocas docenas de bytes al encabezado del archivo.

Para copiar un modelo, es suficiente cuestionarlo

Otras buenas noticias para los piratas: No es necesario saber de antemano el funcionamiento de una inteligencia artificial para lograr engañarla. De hecho, es posible lograr esto mediante un análisis de tipo de caja negra, enviando datos para que se clasifiquen.

«Al cuestionar el sistema de IA, un atacante puede identificar sus características y recrear un modelo similar a partir del cual puede generar errores de clasificación, explica Nicolas Papernot, profesor en la Universidad de Toronto. Paradójicamente, el esfuerzo requerido para extraer un modelo es mucho más bajo que el requerido para su creación inicial.

En los experimentos realizados por Nicolas Papernot en las plataformas de inteligencia artificial de Amazon, Google y MetaMind, unos pocos miles de consultas fueron suficientes cuando los modelos se impulsaron en más de 60,000 imágenes.

Protegerse de estos ataques no es fácil. Los investigadores actualmente se están rompiendo la cabeza para hacer que los modelos de aprendizaje automático sean más robustos, sin hacer que pierdan con precisión. ¿Deberíamos, por lo tanto, temer pronto una guerra de IA en seguridad informática ? No de inmediato, ya que los piratas informáticos aún no tienen las habilidades suficientes para abordar sistemáticamente los sistemas de inteligencia artificial.

Pero las habilidades de IA eventualmente se democratizarán y los piratas informáticos pueden encontrar objetivos lo suficientemente rentables como para poner a los científicos de datos en su paga. Es solo cuestión de tiempo. «A medida que aumentan los niveles de protección, los piratas informáticos recurrirán a este tipo de técnicas para lograr sus fines», dijo Battista Biggio, profesor de la Universidad de Cagliari.

Cuando llegue ese día, los editores de antivirus tendrán serios problemas y lo saben. Es por eso que constantemente buscan estar un paso adelante al atraer a tantos investigadores especializados como sea posible.

y nbsp; «La seguridad de TI es la única área donde los sistemas de inteligencia artificial se enfrentan a adversarios reales. Esta es la única área donde tienen que clasificar los elementos que se han creado para no ser creados. «, lanzó Rajarshi Gupta al final de la conferencia. Su propósito era claro: despertar vocaciones entre los expertos presentes en la sala … y tal vez ofrecerles un trabajo.