
Según va pasando el tiempo vemos como la inteligencia artificial va mejorando.
Aparecen nuevos modelos de IA o versiones mejoradas de los actuales que logran
un mayor porcentaje de éxito en las pruebas de rendimiento. Estos implican
preguntas complejas y algunas de estas pruebas están aún lejos de alcanzar ese
100% deseado, pero todo va progresando.
Recientemente hemos visto como Elon Musk ha anunciado Grok 4, a la que
considera la IA más inteligente del mundo, al margen de
la basura de algunos resultados y respuestas
obtenidos por usuarios de a pie
A pesar de que tenemos IA mucho más complejas y capaces de hacer todo tipo de
cosas, también tenemos el otro lado de la moneda, pues una consola de hace
casi 50 años como la Atari 2600 es capaz de
superar a las mejores IA sin dificultad jugando al ajedrez. Ahora nos toca hablar de otra victoria para la IA, pues resulta que unos
investigadores de
Outflank
han conseguido crear una especie de malware IA que puede superar las medidas
de seguridad de Windows Defender
con una tasa de éxito bastante alta teniendo en cuenta el poco tiempo de
entrenamiento.
Kyle Avery, el investigador principal de
este proyecto, ha declarado que solo han necesitado tres meses de
entrenamiento y una inversión de unos 1.500 dólares para convertir el LLM Open
Source Qwen 2.5 en una IA capaz de crear malware que puede sobrepasar a
Windows Defender.
Tras un entrenamiento de 3 meses el malware tiene una tasa de éxito del 8%. Puede que parezca poco, pero como comparativa
la IA de Anthropic solo lograba un 1% de éxito y DeepSeek peor aún,
aproximadamente un 0,5% de las veces.
Esta no es la primera vez que se logra este objetivo. En 2023,
investigadores de CyberArk crearon malware polimórfico
y en 2024, científicos usaron un modelo basado en GPT-2, entrenado mediante aprendizaje por refuerzo, un método de «premio y
castigo». La IA modificaba el código malicioso y era «recompensada» si la
nueva versión evadía a, y «castigada» si era detectada. Con el tiempo, el
sistema aprendió de forma autónoma técnicas avanzadas como la ofuscación de
código, haciendo que el malware fuera irreconocible para los sistemas de
detección tradicionales.
Visto de esta forma la mejora es más que notoria y teniendo en cuenta que se
entrenó por un precio relativamente económico para esa tarea, no sería extraño
que algún ciberdelincuente se anime a emprender con esto y mejorar esa tasa de
rendimiento.
A medida que se entrena más tiempo y se invierte más
dinero los resultados deberían mejorar, aunque no sabemos hasta que punto se
marcaría el límite. Aun así, es preocupante la situación en la que en un
futuro cercano tengamos a ciberdelincuentes que son capaces de generar malware
completamente nuevo y al que somos vulnerables.
Los investigadores de Outflank planean presentar este nuevo malware de IA en
Black Hat 2025 en agosto.
Fuente:
TomsHardware