Aujourd’hui, j’ai appris que vous pouvez identifier les plantes et les fleurs en utilisant uniquement l’appareil photo de votre iPhone

Parfois, même en tant que journaliste technique, vous pouvez être surpris par la rapidité avec laquelle la technologie s’améliore. Exemple : ce n’est qu’aujourd’hui que j’ai appris que mon iPhone offrait une fonctionnalité que je désirais depuis longtemps : la capacité d’identifier les plantes et les fleurs à partir d’une simple photo.

Il est vrai que diverses applications tierces proposent cette fonction depuis des années, mais la dernière fois que je les ai essayées, j’ai été déçu par leur rapidité et leur précision. Et, oui, il y a Google Lens et Analyse de Snapchatmais il est toujours moins pratique d’ouvrir une application que je n’utiliserais pas autrement.

Mais, depuis l’introduction d’iOS 15 en septembre dernier, Apple propose sa propre version de cette fonctionnalité de recherche visuelle. C’est appelé Recherche visuelleet c’est sacrément bon.

Cela fonctionne très simplement. Ouvrez simplement une photo ou une capture d’écran dans l’application Photos et recherchez l’icône bleue “i” en dessous. S’il est entouré d’un petit anneau scintillant, iOS a trouvé quelque chose sur la photo qu’il peut identifier à l’aide de l’apprentissage automatique. Appuyez sur l’icône, puis cliquez sur “Rechercher” et il essaiera de récupérer des informations utiles.

Taper sur l’icône “i” vous donne généralement plus d’informations sur le moment où vous avez pris la photo et les paramètres de votre appareil photo. Si l’anneau scintille, cependant, il y a aussi des données Visual Look Up à voir.

Après avoir cliqué sur l’icône “i”, vous aurez la possibilité de rechercher plus d’informations en fonction de quelques catégories sélectionnées.

Cela ne fonctionne pas seulement pour les plantes et les fleurs, mais pour les points de repère, l’art, les animaux de compagnie et les « autres objets ». Ce n’est pas parfait, bien sûr, mais cela m’a surpris plus de fois qu’il ne m’a laissé tomber. Voici quelques exemples supplémentaires tirés de ma pellicule :

Visual Look Up fonctionne pour les monuments, les animaux et l’art, ainsi que pour les plantes et les fleurs.
Image : Le bord

Bien qu’Apple ait annoncé cette fonctionnalité l’année dernière à la WWDC, elle n’a pas exactement annoncé sa disponibilité. (Je l’ai repéré via un lien dans l’une de mes newsletters techniques préférées, Le débordement.) Même la page d’assistance officielle de Visual Look Up donne des messages mitigés, vous indiquant à un endroit qu’il s’agit de “États-Unis uniquement”, puis répertoriant d’autres régions compatibles sur une page différente.

Recherche visuelle est encore limité dans sa disponibilité, mais l’accès s’est élargi depuis son lancement. Il est désormais disponible en anglais aux États-Unis, en Australie, au Canada, au Royaume-Uni, à Singapour et en Indonésie ; en français en France ; en allemand en Allemagne ; en italien en Italie; et en espagnol en Espagne, au Mexique et aux États-Unis.

C’est une fonctionnalité intéressante, mais cela me fait aussi me demander ce que la recherche visuelle pourrait faire d’autre. Imaginez prendre une photo de votre nouvelle plante d’intérieur, par exemple, uniquement pour que Siri demande “vous voulez que je configure des rappels pour un calendrier d’arrosage?” – ou, si vous prenez une photo d’un monument en vacances, pour que Siri recherche sur le Web pour trouver les heures d’ouverture et où acheter des billets.

J’ai appris il y a longtemps que c’est insensé de placer vos espoirs sur Siri faire quelque chose de trop avancé. Mais ce sont les types de fonctionnalités que nous pourrions éventuellement obtenir avec les futurs casques AR ou VR. Espérons que si Apple introduit ce type de fonctionnalité, cela fera plus de bruit.

Leave a Comment