Apple Visual Intelligence Hero

Apple Visual Intelligence iOS26: Recherche d'écran avec Google, Chatgpt & Apps

Apple a eu son événement WWDC 2025 hier et a en fait mené tout de suite avec Apple Intelligence, puis a parlé plus tard de son Apple Visual Intelligence. Fondamentalement, Apple a dit qu'ils devaient le perfectionner, donc il y aura plus à venir dans l'année à venir.

Apple Intelligence

Craig Federighi, SVP, génie logiciel chez Apple a déclaré concernant Apple Intelligence:

Et comme nous l'avons partagé, nous continuons notre travail pour fournir les fonctionnalités qui rendent Siri encore plus personnel. Ce travail a besoin de plus de temps pour atteindre notre barre de haute qualité, et nous sommes impatients d'en partager davantage au cours de l'année à venir.

Apple a annoncé un nouveau support linguistique, voici la liste complète des langues prises en charge Apple Intelligence à venir avec iOS26 (le nouveau nom de la prochaine version iOS):

  • Français
  • Allemand
  • italien
  • Portugais (Brésil)
  • Espagnol
  • Chinois (simplifié)
  • japonais
  • coréen
  • Anglais
  • danois
  • Néerlandais
  • norvégien
  • Portugais (Portugal)
  • suédois
  • turc
  • Chinois (traditionnel)
  • vietnamien

Il a également annoncé que les développeurs d'applications pourraient tirer parti d'Apple Intelligence pour leurs applications. Il a déclaré que le nouveau « Foundation Models Framework » permet aux développeurs d'applications de puiser dans les modèles à périphérie, tous réalisés sur l'appareil et non dans le cloud, et donc pas de coût, pas de problèmes de confidentialité et un support hors ligne.

Cette partie a commencé à 6:32 et s'est terminée à 9h50:

https://www.youtube.com/watch?v=0_djddfqTe

Intelligence visuelle Apple

Ensuite, à 40 minutes, Craig a parlé d'Apple Visual Intelligence. Nous avons couvert un certain nombre de fonctionnalités ici l'année dernière, dont certains ont été lancés et certains n'ont jamais été lancés. Je n'ai pas vu l'intégration des Gémeaux.

En tout état de cause, voici quelques-unes des nouvelles fonctionnalités qu'il a démodées autour d'Apple Visual Intelligence.

Capture d'écran à rechercher: Lorsque vous prenez une capture d'écran, vous verrez en bas « Demandez » et « recherche d'image ».

Écran d'intelligence visuelle Apple1

Cliquez sur « Recherche d'images » trouvera des images correspondantes sur Google ou des applications tierces:

Écran d'intelligence visuelle Apple 2 Google

Vous pouvez également mettre en surbrillance pour rechercher une partie spécifique de l'écran, comme la fonction de recherche de Google de Google:

Écran d'intelligence visuelle Apple 3 cercle

Et puis « Demandez » vous permettra de poser des questions sur le chat sur ce que vous regardez – c'est-à-dire multimodal:

Écran d'intelligence visuelle d'Apple 4 Chatgpt multimodéal

Écran d'intelligence visuelle Apple 5 Chatgpt multimodéal

Bien sûr, la recherche en direct de Google est beaucoup plus impressionnante en ce moment.

Voici une vidéo à 40 minutes afin que vous puissiez également regarder cette partie – il dure moins de 4 minutes:

https://www.youtube.com/watch?v=0_djddfqTe

C'est donc ce qui est nouveau avec Apple Intelligence et Apple Visual Intelligence pour IOS26.

Discussion du forum à X.