Une vulnérabilité majeure a récemment été identifiée au sein d’Apple Intelligence, la suite d’outils d’intelligence artificielle intégrée aux iPhone, iPad et Mac. Des chercheurs en cybersécurité affiliés à la RSAC Research ont démontré qu’il était possible de contourner les mécanismes de protection mis en place par Apple, ouvrant la voie à des attaques par injection de requêtes. Plus de 200 millions d’appareils et près d’un million d’applications compatibles pourraient être concernés.
L’attaque repose sur une technique bien connue dans l’univers de l’IA : l’injection de requêtes malveillantes. Cette méthode consiste à insérer des instructions dissimulées dans une commande envoyée au modèle d’intelligence artificielle. Si la formulation est suffisamment sophistiquée, l’IA peut exécuter ces instructions, même si elles contredisent les règles établies par ses concepteurs.
Selon l’OWASP, organisation de référence en cybersécurité, ce type d’attaque représente aujourd’hui la principale menace pesant sur les systèmes d’IA. Les chercheurs ont ainsi réussi à forcer Apple Intelligence à adopter des comportements inappropriés, notamment en générant des insultes à l’encontre de l’utilisateur lors de tests contrôlés. Pour parvenir à leurs fins, les experts ont fusionné deux approches distinctes.
La première, baptisée « Neural Exe », repose sur un algorithme capable de générer des chaînes de caractères incompréhensibles pour un humain, mais interprétables par le modèle d’IA. Ces séquences, qui ressemblent à du charabia, contiennent en réalité des instructions soigneusement optimisées pour déclencher des réactions spécifiques.
La seconde exploite un caractère Unicode spécial appelé « Right-To-Left Override ». Initialement conçu pour les langues écrites de droite à gauche, ce caractère permet de masquer une instruction en l’affichant à l’envers. Résultat : le filtre de sécurité perçoit un contenu inoffensif, tandis que l’IA interprète correctement l’ordre caché. Ce décalage entre ce que voit l’utilisateur et ce que traite le système constitue une technique classique dans l’arsenal des pirates.
En combinant ces deux méthodes, les chercheurs ont obtenu un taux de réussite de 76 % lors de leurs essais. Une efficacité suffisante pour démontrer la fragilité potentielle d’un système profondément intégré au cœur du système d’exploitation. Apple Intelligence étant connecté à de nombreuses applications – messagerie, notes, navigation et autres services – une compromission pourrait théoriquement impacter l’ensemble de l’environnement logiciel. Plus l’IA est intégrée, plus les surfaces d’attaque se multiplient : modèle, API, filtres et interactions applicatives doivent être protégés simultanément.
Les chercheurs ont alerté Apple en octobre 2025. Des correctifs ont ensuite été intégrés dans les mises à jour iOS 26.4 et macOS 26.4. Aucune exploitation massive n’a été signalée à ce jour, mais les experts soulignent que ce type d’IA constitue désormais une cible stratégique pour les cyberattaquants.
Apple a conçu Apple Intelligence pour privilégier le traitement local des données, afin de renforcer la confidentialité et limiter les échanges avec des serveurs distants. Toutefois, cette approche ne protège pas totalement contre les attaques sophistiquées.
L’étude met en lumière une réalité : plus une intelligence artificielle est profondément intégrée au système, plus sa sécurisation devient complexe. Un seul point faible peut suffire à compromettre l’ensemble de l’architecture. Cette découverte rappelle que la sécurité des IA embarquées demeure un enjeu central, même pour les écosystèmes réputés robustes comme celui d’Apple.
L’attaque repose sur une technique bien connue dans l’univers de l’IA : l’injection de requêtes malveillantes. Cette méthode consiste à insérer des instructions dissimulées dans une commande envoyée au modèle d’intelligence artificielle. Si la formulation est suffisamment sophistiquée, l’IA peut exécuter ces instructions, même si elles contredisent les règles établies par ses concepteurs.
Selon l’OWASP, organisation de référence en cybersécurité, ce type d’attaque représente aujourd’hui la principale menace pesant sur les systèmes d’IA. Les chercheurs ont ainsi réussi à forcer Apple Intelligence à adopter des comportements inappropriés, notamment en générant des insultes à l’encontre de l’utilisateur lors de tests contrôlés. Pour parvenir à leurs fins, les experts ont fusionné deux approches distinctes.
La première, baptisée « Neural Exe », repose sur un algorithme capable de générer des chaînes de caractères incompréhensibles pour un humain, mais interprétables par le modèle d’IA. Ces séquences, qui ressemblent à du charabia, contiennent en réalité des instructions soigneusement optimisées pour déclencher des réactions spécifiques.
La seconde exploite un caractère Unicode spécial appelé « Right-To-Left Override ». Initialement conçu pour les langues écrites de droite à gauche, ce caractère permet de masquer une instruction en l’affichant à l’envers. Résultat : le filtre de sécurité perçoit un contenu inoffensif, tandis que l’IA interprète correctement l’ordre caché. Ce décalage entre ce que voit l’utilisateur et ce que traite le système constitue une technique classique dans l’arsenal des pirates.
En combinant ces deux méthodes, les chercheurs ont obtenu un taux de réussite de 76 % lors de leurs essais. Une efficacité suffisante pour démontrer la fragilité potentielle d’un système profondément intégré au cœur du système d’exploitation. Apple Intelligence étant connecté à de nombreuses applications – messagerie, notes, navigation et autres services – une compromission pourrait théoriquement impacter l’ensemble de l’environnement logiciel. Plus l’IA est intégrée, plus les surfaces d’attaque se multiplient : modèle, API, filtres et interactions applicatives doivent être protégés simultanément.
Les chercheurs ont alerté Apple en octobre 2025. Des correctifs ont ensuite été intégrés dans les mises à jour iOS 26.4 et macOS 26.4. Aucune exploitation massive n’a été signalée à ce jour, mais les experts soulignent que ce type d’IA constitue désormais une cible stratégique pour les cyberattaquants.
Apple a conçu Apple Intelligence pour privilégier le traitement local des données, afin de renforcer la confidentialité et limiter les échanges avec des serveurs distants. Toutefois, cette approche ne protège pas totalement contre les attaques sophistiquées.
L’étude met en lumière une réalité : plus une intelligence artificielle est profondément intégrée au système, plus sa sécurisation devient complexe. Un seul point faible peut suffire à compromettre l’ensemble de l’architecture. Cette découverte rappelle que la sécurité des IA embarquées demeure un enjeu central, même pour les écosystèmes réputés robustes comme celui d’Apple.



Technologies




Apple : 50 ans en 50 chiffres




