Des chercheurs d’Aim Labs ont découvert EchoLeak, la toute première vulnérabilité zero-click liée à l’intelligence artificielle dans Microsoft 365 Copilot. Elle permet à un attaquant d’exfiltrer des données sensibles d’entreprise sans interaction de l’utilisateur. Référencée sous le CVE-2025-32711 et classée critique par Microsoft, cette faille repose sur une catégorie d’erreurs appelées LLM Scope Violations. La chaîne d’attaque repose sur une injection de prompt dissimulée dans un email apparemment anodin, qui est ensuite récupérée par le moteur RAG (Retrieval-Augmented Generation) de Copilot. Ce dernier amène le modèle de langage à divulguer des données internes via des liens sortants spécialement formatés. L’exploitation a été rendue possible par l’utilisation de domaines Microsoft de confiance comme Teams ou SharePoint. Microsoft a corrigé la faille côté serveur en mai 2025 après une divulgation en janvier, et affirme qu’aucune exploitation active n’a été détectée.
Analyse de nos experts :
EchoLeak révèle une faille de conception majeure dans le fonctionnement des modèles de langage dans les assistants IA d’entreprise. L’attaque repose sur une injection contextuelle dans le prompt, sans qu’aucun clic ne soit nécessaire, prouvant que la simple influence indirecte suffit à provoquer une fuite de données. Le contournement des systèmes de protection classiques comme XPIA de Microsoft, via du langage naturel, démontre que les mécanismes actuels de détection sont inadaptés face à l’obfuscation avancée des prompts. Même si la faille a été corrigée avant toute exploitation publique, le risque structurel demeure : tant que les systèmes IA récupèrent des données non filtrées depuis des sources considérées comme sûres, un message bien formulé suffit à compromettre la confidentialité. EchoLeak confirme que la manipulation de prompt est désormais une méthode crédible d’exfiltration de données et doit être traitée avec le même niveau de gravité que les vulnérabilités logicielles classiques.
Lire l’article complet ici.