Apple Visual Intelligence – Local, Shopping et plus
Apple a organisé hier son grand événement et, lors de la conférence sur l'iPhone, ils ont annoncé Apple Visual Intelligence. Vous pouvez prendre des photos de n'importe quoi et utiliser Apple Intelligence pour la recherche locale, les achats, l'aide aux devoirs et bien plus encore.
Apple utilise Google, ChatGPT et je pense peut-être Yelp et OpenTable avec Apple Maps pour ces intégrations. Et oui, cela ressemble beaucoup à Google Lens…
Cette partie de la conférence commence vers la 57e minute, mais permettez-moi de partager des captures d'écran de celle-ci.
Voici un homme qui prend une photo de l'entrée d'un restaurant pour en savoir plus sur le restaurant – je pense sur Yelp et OpenTable ?

Voici les résultats :

Ensuite, celui-ci prend une photo d'un vélo, pour rechercher sur Google ce produit et son prix :

Les résultats semblent adaptés :

Et puis obtenir de l'aide pour les devoirs en utilisant ChatGPT :

Voici la vidéo intégrée au début, si vous souhaitez la regarder :
Apple met donc en œuvre l’IA sous forme d’outils, essentiellement sous forme d’applications intégrées.
Pensées?
Discussion sur le forum chez X.
