IA-SEGURIDAD

IA aplicada a la seguridad

Hoy tenemos el placer de contar con un artículo de nuestra querida amiga María José Montes, una gran experta en ciberseguridad.

Cuando hablamos de inteligencia artificial (IA), nos referimos a intentar hacer que las “máquinas” puedan imitar funciones cognitivas humanas, como puede ser aprender y resolver problemas.

En el ámbito de la seguridad, la intención para aplicar IA, sería la de poder encontrar, por ejemplo, vulnerabilidades y corregirlas, de una manera más eficiente y rápida a la que podría requerir hacerlo una persona manualmente.

En la actualidad, todos nuestros dispositivos inteligentes se alimentan con software que está sujeto a errores de código y vulnerabilidades y, además, es cada vez más complejo. Estas vulnerabilidades pueden ser explotadas y es necesario localizarlas lo más rápido posible, así como corregirlas.

Dada la creciente evolución y sofisticación del malware, es necesario poder aplicar la IA en el área de seguridad.

¿Se puede aplicar en el mundo real la IA en el área de seguridad?

La empresa ForAllSecure, de Pittsburgh, creó un bot que ganó en el 2016 la Cyber Grand Challenge. Este bot es un sistema capaz de generar exploits totalmente automático. Su IA se denomina “Mayhem”. AEG (Generación Automática de Exploits) busca y encuentra errores software. Una vez encontrado el bug, produce de manera autónoma la secuencia de control de la explotación, es decir, protege la vulnerabilidad. Este software tiene importantes aplicaciones para defensa. Por ejemplo, los algoritmos automatizados de generación de firmas, toman como entrada un conjunto de exploits y emiten la firma para el sistema de detección de intrusos (IDS), que reconocerá también exploits posteriores y variantes.

Por otra parte, Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT, junto con la start-up PatternEx, desarrollaron una plataforma de IA llamada AI2. Incorpora una retroalimentación entre el analista humano y la IA, que se llama Active Contextual Modeling. Es capaz de aprender en tiempo real. Según estudio realizado por ellos y revisado por el IEEE, compararon su sistema con uno puramente mecánico. El resultado fue que su sistema aumentaba la tasa de detección de ataques en un factor 10.

 

Y, ¿en la prevención de delitos?. ¿Puede aplicarse?

Mirando atrás, podríamos llamar “embrión” de inteligencia artificial aplicada a la prevención de delitos, al sistema CompStat, que se implementó por primera vez en 1995, en el Departamento de Policía de Nueva York. Su enfoque es sistemático, e incluye filosofía y gestión organizacional, dependiendo de herramientas subyacentes. Se extendió en muchas comisarías de policía por EEUU.

Desde entonces, la analítica predictiva y herramientas de análisis de la delincuencia que se apoyan en IA, han dado grandes pasos. California Armorway, desarrollaba sus aplicaciones orientadas en la salud. Diversificó y aplicó a otros ámbitos, dando como resultado, herramientas que aplican teoría de juegos con IA para predecir cuándo ciertas amenazas alcanzarán un objetivo (por ejemplo, amenazas terroristas). La seguridad portuaria en Nueva York, Boston y Los Ángeles, utiliza el software de Armorway, con fuentes de datos que incluyen, por ejemplo, número de carga de pasajeros y crean un horario que hace difícil predecir cuándo aumentará la presencia policial.

Otro campo en el que se aplica en la vida real la IA es en la protección de la privacidad. Un ejemplo seria Apple. Anunciaron que van a aplicar métodos de privacidad diferencial para, por un lado, garantizar la privacidad del cliente y, por otro, poder usar los datos para proporcionar una experiencia personalizada.

Actualmente, no existen alternativas tecnológicas para la recopilación y análisis en masa de metadatos civiles. Quizás para una recopilación masiva, pero, después, el problema estaría en analizar esa masa ingente de datos. La privacidad diferencial permitiría mantener los datos privados en una red, proporcionando garantías a la población protegida y usar algoritmos para investigar a esa población objetivo. Esta solución podría utilizarse para encontrar patrones o indicadores de terroristas en una población civil, entre otros escenarios.

Teniendo en cuenta que, aplicaciones aún no inventadas, tendrán acceso a nuevas fuentes de datos, que todavía no podemos imaginar, analizadas por algoritmos que todavía no existen, plantean un reto muy importante a la hora de crear salvaguardas de la privacidad de la población.

Las tecnologías aprendizaje automático y de minería de datos, ignoran las consecuencias de la explotación o la intrusión en la privacidad. A largo plazo, es necesario una buena política, para poder garantizar y proteger la privacidad.

El futuro ya está aquí…

En la actualidad, en EEUU se está trabajando en DARMS (Dynamic Aviation Risk Management Solution). Es un sistema inteligente que integrará información en todo el sector de la aviación para adaptar un perfil de seguridad personalizado, por vuelo. La idea es sustituir las líneas actuales de seguridad por un túnel inteligente. En los próximos años, quizás menos de una década, estará en los aeropuertos de EEUU.

Aquí, en la Unión Europea, existe el programa Horizon 2020. Se apoya actualmente en simulaciones, a través de proyectos como LawTrain. Los pasos siguientes serán pasar de simulación a investigación real.

Por otro lado, el uso de drones y aviones no tripulados, para la vigilancia de actividad criminal, ya se están empleando.

Por supuesto, todo esto abrirá debates sobre ética, normativa, etc. que serán bastante fuertes. Aunque la probabilidad de que drones inteligentes, que detecten delitos y alerten a las autoridades, se utilicen en un futuro próximo, es muy elevada.

 

Conclusión

Cómo hemos visto, la aplicación de IA en la seguridad, tanto en el ciberespacio, como fuera de él, puede ofrecer grandes beneficios para la población.

Sin embargo, no está exenta de polémica, porque, cuando entramos en el terreno de la seguridad fuera del ciberespacio, hay un choque directo con la privacidad de las personas. La recopilación de datos, el análisis de los mismos, la utilización que pueda darse de estos análisis, unidos a las posibles fugas de información que puedan producirse, crean ya un gran debate ético, que necesitará respuestas con normativas y regulaciones que, por un lado, permitan mantener un grado de privacidad adecuado y, por otro, preservar la privacidad de los individuos.

Éste será, quizás, el punto más importante a resolver, incluso antes de que existan los medios para el análisis y explotación de datos. Será muy interesante ver cómo resolver los problemas derivados de la preservación de la privacidad, a la vez que se garantiza la seguridad.

En el campo de robótica e inteligencia artificial, ya se augura que, en un futuro próximo, buena parte de los trabajos que actualmente son realizados por personas, serán sustituidos por “máquinas”.

Desde el punto de vista del ciberespacio, está claro que, las herramientas de aprendizaje, son mucho más eficientes cuando se apoyan y retroalimentan de los analistas humanos, luego garantizan que, en un futuro próximo, todavía el sector de la seguridad será un sector que necesitará de grandes profesionales, bien formados, que dispondrán de herramientas en las que apoyarse, a la vez que, éstas, necesitarán de ellos para poder realizar su tarea de manera más eficiente, generando una simbiosis entre hombre-máquina.

 

 
0 comentarios

Dejar un comentario

¿Quieres unirte a la conversación?
Siéntete libre de contribuir