Lors de la conférence d’ouverture de la WWDC 2025, Apple a dévoilé d’importantes évolutions pour sa suite Apple Intelligence. Trois innovations phares se détachent : la traduction instantanée dans les messages et appels, l’analyse intelligente de l’écran par Visual Intelligence, et l’intégration de l’IA dans l’application Raccourcis.
Grâce à la traduction en direct, les utilisateurs d’iPhone pourront désormais communiquer en plusieurs langues sans barrière. Dans l’application Messages, Apple Intelligence traduit en temps réel les conversations, tandis que lors des appels FaceTime ou téléphoniques, l’IA affiche des sous-titres ou retransmet la voix de l’interlocuteur dans la langue de l’utilisateur. Cette fonctionnalité est compatible avec de nombreuses langues, dont le français, l’anglais, l’allemand, l’espagnol et le japonais.
Apple introduit aussi une extension majeure de Visual Intelligence. Initialement utilisée via l’appareil photo, cette fonction permet désormais d’analyser tout ce qui s’affiche à l’écran. En un geste, les utilisateurs peuvent demander à ChatGPT ou à d'autres outils intégrés des informations ou suggestions contextuelles sur ce qu’ils consultent dans leurs applications. Visual Intelligence permet également d’identifier des événements à ajouter automatiquement au calendrier ou de rechercher en ligne des produits similaires à ceux affichés à l’écran.
Enfin, Apple intègre Apple Intelligence dans l’application Raccourcis. Cette nouveauté permet d’automatiser des actions complexes alimentées par l’IA, que ce soit localement ou via le cloud. Il devient ainsi possible de créer des workflows intelligents, comme comparer un enregistrement vocal à des notes écrites ou résumer un texte automatiquement. Apple baptise ces automatisations des « actions intelligentes », ouvrant la voie à une personnalisation avancée de l’expérience utilisateur.
Avec ces trois annonces, Apple montre une volonté claire de rendre l’intelligence artificielle plus utile, transparente et accessible au quotidien. Ces nouveautés seront progressivement disponibles avec les prochaines mises à jour logicielles sur iPhone, iPad et Mac.
Grâce à la traduction en direct, les utilisateurs d’iPhone pourront désormais communiquer en plusieurs langues sans barrière. Dans l’application Messages, Apple Intelligence traduit en temps réel les conversations, tandis que lors des appels FaceTime ou téléphoniques, l’IA affiche des sous-titres ou retransmet la voix de l’interlocuteur dans la langue de l’utilisateur. Cette fonctionnalité est compatible avec de nombreuses langues, dont le français, l’anglais, l’allemand, l’espagnol et le japonais.
Apple introduit aussi une extension majeure de Visual Intelligence. Initialement utilisée via l’appareil photo, cette fonction permet désormais d’analyser tout ce qui s’affiche à l’écran. En un geste, les utilisateurs peuvent demander à ChatGPT ou à d'autres outils intégrés des informations ou suggestions contextuelles sur ce qu’ils consultent dans leurs applications. Visual Intelligence permet également d’identifier des événements à ajouter automatiquement au calendrier ou de rechercher en ligne des produits similaires à ceux affichés à l’écran.
Enfin, Apple intègre Apple Intelligence dans l’application Raccourcis. Cette nouveauté permet d’automatiser des actions complexes alimentées par l’IA, que ce soit localement ou via le cloud. Il devient ainsi possible de créer des workflows intelligents, comme comparer un enregistrement vocal à des notes écrites ou résumer un texte automatiquement. Apple baptise ces automatisations des « actions intelligentes », ouvrant la voie à une personnalisation avancée de l’expérience utilisateur.
Avec ces trois annonces, Apple montre une volonté claire de rendre l’intelligence artificielle plus utile, transparente et accessible au quotidien. Ces nouveautés seront progressivement disponibles avec les prochaines mises à jour logicielles sur iPhone, iPad et Mac.