
Día 2 – Evolución de las IA en defensa y ataque
La inteligencia artificial dominó el tema inaugural de la Conferencia RSA,
captando la atención tanto de proveedores de seguridad consolidados como de
startups.
«La IA lo ha cambiado todo», declaró Hugh Thompson, presidente
ejecutivo de la conferencia, en la inauguración del evento anual de seguridad.
«La forma en que operan los atacantes está cambiando drásticamente: el uso
generalizado de la IA, su rápida adopción, las implicaciones de seguridad
que esto conlleva, los cambios masivos en lo que hacemos y cómo podríamos
hacerlo».
Los debates sobre IA destacados en RSA han trascendido la IA generativa y se
han centrado en la IA agente; su aplicación a los dominios de seguridad
tradicionales, especialmente en el centro de operaciones de seguridad; la
seguridad de aplicaciones basada en IA; la defensa contra ataques adversarios
en grandes modelos de lenguaje (LLM); y el cumplimiento normativo y la
gobernanza.
En una conferencia magistral, Vasu Jakkal, vicepresidente corporativo de
seguridad de Microsoft, afirmó que la seguridad es un área clave para la
adopción temprana de la IA.
«Creo firmemente que la IA tiene el mejor caso de uso, o definitivamente el
caso de uso más serio, en seguridad».
En otra conferencia magistral, Jeetu Patel, vicepresidente ejecutivo y
director de producto de Cisco, también predijo que la seguridad sería un
factor clave para la adopción de la IA, lo que calificó de irónico dada la
tendencia de los profesionales de la seguridad a frenar las nuevas
tecnologías.
Día 2 – Computación cuántica
Un tema central del segundo día de la Conferencia RSAC fue compartir
información sobre las acciones de los atacantes con capacidades emergentes
como la IA y la computación cuántica.
Sandra Joyce, vicepresidenta de Inteligencia de Amenazas de Google, detalló
cómo grupos de amenazas persistentes avanzadas (APT) de más de 20 países,
especialmente Irán, China y Corea del Norte, han accedido a los servicios
públicos de IA Gemini de Google para mejorar sus ataques. Aportó pruebas de
que los atacantes realizaron reconocimiento de las organizaciones objetivo,
investigaron vulnerabilidades, solicitaron ayuda con scripts maliciosos,
perfeccionaron los mensajes de phishing y buscaron técnicas de evasión.
Sin embargo, en esencia, la actividad de los atacantes detectada por
Inteligencia de Amenazas de Google fue relativamente baja.
«Aún no hemos visto indicios de que los adversarios desarrollen vectores de
ataque completamente nuevos con estos modelos», afirmó Joyce.
Los controles de seguridad de la IA impidieron que algunos actores de APT
realizaran investigaciones y ataques más sofisticados basados en IA, explicó
Joyce. Mientras tanto, las propias herramientas son capaces de descubrir
vulnerabilidades. Puso como ejemplo
Big Sleep, una vulnerabilidad previamente compartida que Google descubrió con la ayuda
de un LLM. «Creemos que este es el primer ejemplo público de un agente de IA que
encuentra un problema de memoria explotable previamente desconocido en
software del mundo real de uso generalizado», afirmó Joyce.
John ‘Four’ Flynn, vicepresidente de seguridad y privacidad de Google
DeepMind, señaló que los protocolos de seguridad operativa de los actores
estatales más importantes dejan a la industria prácticamente ciega ante sus
actividades.
«Sostengo que la mayor parte del trabajo adversarial probablemente se
realizará en modelos locales, de peso abierto, o en algún tipo de modelos
personalizados que estén desarrollando, debido a la falta de visibilidad. Si
eres un atacante, obviamente estarás probando todo lo que existe, pero si
realizas un trabajo realmente pesado con IA, puede que sea algo que hagas
abiertamente o no».
Jade Leung, directora técnica del Instituto de Seguridad de IA del Reino Unido
(un equipo del gobierno británico compuesto por unos 200 investigadores), se
centró en cómo la IA podría afectar los riesgos para la seguridad nacional en
áreas como los ataques químicos y biológicos y el terrorismo.
«Claramente, las capacidades [de la IA] avanzan más rápido que la
seguridad. Existe la sensación de que quienes trabajan sobre el terreno en
este tipo de problemas sienten que apenas estamos a la altura».
Si bien la IA ocupa un lugar central como tema de seguridad en la
Conferencia RSAC, un panel principal del martes también abordó otra amenaza
emergente: la posibilidad de que la computación cuántica socave las
prácticas actuales de cifrado.
Los participantes en ese panel sobre criptografía coincidieron en que la
computación cuántica probablemente aún está a más de una década o más de
convertirse en una amenaza para el descifrado, pero dejaron claro que
los actores de los estados nacionales están tomando medidas ofensivas
ahora.
Raluca Ada Popa, profesora asociada e investigadora científica sénior de UC
Berkeley y Google DeepMind, denominó la técnica
«recolectar ahora, descifrar después». Añadió:
«Los atacantes pueden importar datos cifrados y confidenciales ahora y
descifrarlos más tarde, cuando las computadoras cuánticas estén listas».
Whitfield Diffie, pionero de la criptografía de clave pública, intervino para
explicar por qué la recolección de datos es importante incluso si la
computación cuántica está a décadas de distancia.
«Existen vastas bibliotecas de cintas en la NSA y en todas esas
organizaciones que datan de décadas atrás. Estoy bastante seguro de que lo
más antiguo en las bibliotecas de cintas de la NSA probablemente data de la
Primera Guerra Mundial, y seguramente no es posterior a la Segunda Guerra
Mundial. Así que, por supuesto, se seguirá trabajando en nuestro tráfico
actual durante el resto del siglo».
El profesor del MIT, Vinod Vaikuntanathan, recomendó que las organizaciones
protejan sus datos confidenciales empleando uno de los algoritmos de
cifrado poscuántico
más recientes, además de un algoritmo actual como RSA o Diffie-Hellman.
«Lo pragmático es ser conservador y emplear el llamado cifrado híbrido».
Día 3 – Nuevas amenazas y tipos de ataques
Para el público de seguridad al que se dirigió el tercer día de la Conferencia
RSAC en su discurso inaugural recurrente sobre ciberseguridad, el fundador de
Mandiant, Kevin Mandia, afirmó que el mensaje es claro.
«Si hay un tema central en este momento es ‘¿Cómo podemos hacer más con
menos y más con lo mismo?’. Si hay que operar haciendo más con menos, la
carrera de la IA ha comenzado».
Muchas de las demás discusiones del tercer día de la conferencia se dedicaron
a técnicas y problemas de ataque emergentes, relacionados con la IA y otros.
Tom Gillis, vicepresidente sénior y director general del grupo de
infraestructura y seguridad de Cisco, hizo referencia a los ataques
«Volt Typhoon» (APT de China), cuya motivación generó un amplio debate en la
Conferencia RSAC.
«Este año vimos ataques contra una nueva superficie de ataque. Se están
atacando conmutadores, enrutadores y firewalls, y el objetivo de los
atacantes no es robar información de tarjetas de crédito. El objetivo de los
atacantes es entrar y permanecer para poder apagar las luces cuando llegue
el momento. Por lo tanto, hay mucho en juego».
Joshua Wright, miembro del Instituto SANS, presentó una nueva y peligrosa
técnica llamada proliferación de autorizaciones (Permission Sprawl).
«Estamos creando escenarios en los que los adversarios aprovechan ese
proceso de autenticación centralizado mediante inicio de sesión único,
tokens de acceso personal, tokens de muestra y similares, para poder
explotar su acceso a diferentes recursos. Esto es algo que observamos
en nuestras pruebas de penetración, pero también lo vemos utilizado por
actores de amenazas», afirmó, identificando al equipo
«Scattered Spider»
como un conocido actor de amenazas que utiliza esta técnica.
«Sus tácticas no son tan sofisticadas. Usan su acceso inicial y luego
emplean todos los recursos disponibles para expandirse por toda la red. Y lo
sorprendente de esto es que su herramienta principal es simplemente un
navegador», afirmó Wright.
Otro investigador de seguridad del mismo panel del SANS Institute identificó
un desafío emergente relacionado con la ventaja de velocidad que los atacantes
basados en IA tienen sobre los defensores y solicitó una solución
legislativa. Para establecer la velocidad de los agentes de IA adversarios,
Rob T. Lee, jefe de investigación del SANS Institute, citó una investigación
del MIT que demuestra que esos sistemas de agentes pueden ejecutar secuencias
de ataque 47 veces más rápido que los operadores humanos.
«La velocidad ya no es la métrica. Es el arma decisiva», afirmó Lee.
Incluso con la IA como apoyo, Lee sostuvo que los defensores se ven
actualmente obstaculizados por leyes de privacidad como el RGPD, la CCPA y la
nueva legislación de la Unión Europea que regula la IA y los datos.
«En cuanto al análisis de red, ahora se pueden incorporar todos los datos
de análisis de red en un LLM. Esto requiere literalmente acceso a datos
privados, correos electrónicos, historial de navegación y
registros. Las organizaciones deben desinfectar hasta el 78% de los
datos de seguridad sin procesar, lo que demora de siete a doce minutos antes
de que se realice la acción necesaria para el análisis, dijo.
Fuente:
ITPro