La course à l’innovation en cybersécurité franchit un nouveau cap. Microsoft présente Ire, un agent d’intelligence artificielle autonome conçu pour identifier et classer les logiciels malveillants sans recourir aux signatures traditionnelles. Dans un contexte où les cybermenaces évoluent plus vite que jamais, ce prototype promet d’allier puissance d’analyse et gain de temps pour les équipes en première ligne.
Un nouvel outil capable de traquer les menaces inconnues
Microsoft a mobilisé ses divisions Research, Defender et Discovery & Quantum pour mettre au point Ire. L’entreprise explique que cet agent peut « analyser et classer des logiciels comme malveillants ou bénins sans aucune connaissance préalable de leur origine ou de leur objectif ». Pour y parvenir, il exploite de grands modèles de langage (LLM) et des outils de rétro-ingénierie comme angr et Ghidra afin de reconstruire le flux de contrôle d’un programme et d’interpréter son comportement.

Les premiers tests sont jugés encourageants. Sur des ensembles publics de pilotes Windows, Ire a obtenu une précision de 0,98 et un rappel de 0,83. Lors d’expérimentations sur 4 000 fichiers particulièrement difficiles à analyser, il a correctement identifié 90 % des malwares avec un taux de faux positifs limité à 4 %. Dans un cas concret, l’agent a constitué un dossier complet permettant de bloquer automatiquement un malware lié à une menace persistante avancée, confirmé ensuite par Defender.
Une réponse à la surcharge des centres de sécurité
Pour Charanpal Bhogal, analyste chez Gartner, « le projet Ire va au-delà des outils existants » en s’affranchissant de la reconnaissance de modèles connus pour se concentrer sur l’analyse comportementale. Cette approche pourrait réduire la fatigue liée aux alertes qui touche les centres d’opérations de sécurité (SOC) et améliorer les délais de triage.
Selon Manish Rawat, analyste chez TechInsights, Ire répond aux besoins des environnements à haut risque et sensibles au facteur temps, qu’il s’agisse de multinationales, d’infrastructures critiques ou de sociétés de taille moyenne dépourvues de ressources spécialisées. L’intégration de l’agent nécessiterait toutefois d’importantes adaptations comme la compatibilité avec les systèmes SIEM et SOAR, la formation des analystes à l’interprétation des résultats et la mise à jour des règles de gouvernance.
Ce déploiement pourrait marquer une étape dans l’essor des agents IA autonomes. Mais il soulève aussi des questions sur la dépendance technologique, le risque de dérive des modèles et la préservation des compétences humaines. L’avenir d’Ire dépendra autant de sa performance que de la capacité des organisations à l’intégrer de manière responsable.