Los CISO se preparan para un nuevo tipo de caos en la IA – Blog EHCGroup

La magnitud del problema

Los atacantes utilizan la IA para trabajar a velocidades que los humanos no pueden igualar. Los mensajes de phishing son más convincentes , la escalada de privilegios es más rápida y los scripts automatizados pueden ajustarse durante el ataque para evitar ser detectados. El informe destaca investigaciones que demuestran que los ataques basados ​​en IA pueden moverse más de 40 veces más rápido que los métodos tradicionales. Esto significa que una brecha de seguridad puede ocurrir incluso antes de que un defensor detecte la primera alerta.

En muchos centros de operaciones de seguridad, la IA se está incorporando sin un plan. El 42 % de los SOC encuestados afirmó utilizar herramientas de IA y aprendizaje automático listas para usar, sin reglas ni integraciones personalizadas. Pocos cuentan con manuales de estrategias para amenazas específicas de la IA, como la inyección inmediata o el envenenamiento de modelos. Muchos equipos también carecen de visibilidad sobre el comportamiento de los sistemas de IA, lo que crea puntos ciegos que los atacantes pueden explotar.

Esta falta de preparación es especialmente problemática para los SOC más pequeños que operan con personal limitado. Rob T. Lee , director de investigación y director de inteligencia artificial del SANS Institute, explicó a Help Net Security que, cuando los recursos son limitados, los CISO deberían centrarse en una inversión que proporcione seguridad y eficiencia operativa.

“La inversión más importante en seguridad de IA para los altos ejecutivos este año debería ser un plano de control orientado a la adopción”, afirmó Lee. “Esto permite a los empleados acceder a herramientas de IA aprobadas a través de un entorno protegido que incluye medidas de seguridad fundamentales para el control de acceso, la protección de datos, el seguimiento y la monitorización de modelos. Permite a los usuarios realizar sus tareas laborales a través de la IA, mientras que los equipos de seguridad mantienen la visibilidad de las operaciones de IA en todos los dominios de datos”.

Lee agregó que los CISO deberían medir el éxito de este enfoque a través de resultados tangibles en lugar de puntos de referencia abstractos.

“El éxito no se mide con puntuaciones abstractas, sino con claridad y control”, explicó. “El sistema demuestra su éxito al reducir el uso no autorizado de herramientas de IA y aumentar el flujo de proyectos a través de canales oficiales, lo que impulsa la adopción de plataformas autorizadas. La combinación de resultados específicos demuestra cómo el sistema protege los datos dentro de la organización, a la vez que reduce los incidentes de IA y permite a los empleados crear nuevas soluciones dentro de los límites establecidos”.

Un marco para una IA segura

Para ayudar a las organizaciones a cerrar estas brechas, el informe describe un marco de tres partes: proteger la IA, utilizar la IA y gobernar la IA.

Protect AI abarca el trabajo técnico necesario para mantener seguros los modelos, los datos y la infraestructura. Esto incluye controles de acceso, cifrado, pruebas y monitorización continua. También se centra en nuevos tipos de ataques, como el envenenamiento de modelos, donde se manipulan los datos de entrenamiento, y los ataques de inyección de impulsos que engañan a los sistemas para que filtren datos confidenciales o ejecuten comandos dañinos.

Utilizar IA se centra en ayudar a los defensores a usar la IA para fortalecer sus propias operaciones. El informe enfatiza que los SOC deben integrar la IA en la detección y respuesta si quieren mantenerse al día con los ataques impulsados ​​por IA. La automatización puede ayudar a reducir la carga de trabajo de los analistas y agilizar la toma de decisiones, pero solo si se implementa con cuidado y se supervisa de cerca.

Lee enfatizó que la automatización también debe jugar un papel clave en la defensa contra ataques de phishing y suplantación de voz impulsados ​​por IA .

“La protección de equipos de seguridad pequeños requiere sistemas de detección temprana para combatir los ataques de phishing y suplantación de voz basados ​​en IA”, afirmó Lee. “El primer paso para la defensa debería incluir herramientas de filtrado de correo electrónico y llamadas basadas en IA que detecten estafas obvias, mientras que las estrategias SOAR/XDR deberían descartar automáticamente las alertas de baja confianza para mostrar a los analistas solo las amenazas importantes. Este método reduce las alertas innecesarias en lugar de generar ruido adicional, lo que beneficia a las organizaciones con recursos de seguridad limitados”.

También destacó la protección de la identidad como una capa crítica de defensa.

“La eliminación completa del robo de credenciales es posible gracias a la implementación de claves de acceso FIDO2/WebAuthn como reemplazo de contraseñas y MFA tradicionales, mientras que todas las solicitudes confidenciales requieren verificación a través de un canal secundario”, afirmó Lee. “El programa de capacitación debería centrarse en el personal de primera línea que trabaja en finanzas, recursos humanos y servicios al paciente, ya que es quien corre el mayor riesgo de recibir contenido engañoso generado por IA”.

Presión de los reguladores

La regulación de la IA evoluciona rápidamente. La Ley de IA de la UE , el Marco de Gestión de Riesgos de IA del NIST y diversas políticas nacionales están creando nuevas expectativas de transparencia y rendición de cuentas. No mantenerse al día puede ser costoso. En un caso reciente, una empresa europea recibió una multa millonaria por no poder proporcionar un registro de sus sistemas de IA y fuentes de datos tras un incidente.

Fuente y redacción: helpnetsecurity.com / Anamarija Pogorelec

Compartir

Ver fuente

Related Post