Amazon a présenté le 15 novembre 2025 « Lens Live », une fonction de recherche visuelle en temps réel intégrée à l’application Amazon Shopping sur iOS et Android. Pensée pour accélérer la découverte et l’achat, elle permet de viser un produit avec la caméra et d’obtenir immédiatement des correspondances, des informations synthétiques et des actions d’achat sans quitter l’écran.
Ce que fait Lens Live
Lens Live complète l’outil Lens existant (photos, import d’images, scan de codes‑barres) en ajoutant une expérience entièrement centrée sur le flux caméra. Lorsqu’un utilisateur pointe un objet, la fonction scanne en temps réel et affiche, sous forme de carrousel glissable, les produits les plus proches visuellement. L’interface permet de zoomer sur une correspondance, d’ajouter un article au panier via l’icône + ou de le sauvegarder dans la liste de souhaits avec le cœur, le tout sans quitter l’affichage caméra.
Rufus, l’assistant intégré
Lens Live intègre l’assistant IA « Rufus », décrit comme un assistant de shopping capable de résumer les caractéristiques d’un produit, proposer des questions pertinentes et répondre en direct via un bouton « Ask ». Rufus peut, par exemple, répondre à des questions pratiques formulées par l’utilisateur (« ce canapé passe‑t‑il par une porte de 30 pouces ? ») et fournir des recommandations, des comparaisons et des suggestions d’accessoires en situation, afin d’aider à la décision d’achat.
Principes techniques annoncés
Amazon combine plusieurs briques pour Lens Live : OpenSearch et SageMaker pour l’exploitation de modèles à grande échelle, un modèle léger de détection d’objets pour l’identification instantanée depuis la caméra, puis des embeddings visuels profonds pour mettre en correspondance l’image capturée avec des milliards de références sur la plateforme. Le modèle de langage derrière Rufus assure la compréhension et la génération des réponses à partir des données produit.
Impacts pour l’utilisateur et pour le commerce
- Réduction des frictions : la recherche, la comparaison et l’ajout au panier se font en une seule interaction visuelle.
- Navigation plus intuitive : les recommandations contextuelles et les comparaisons en temps réel facilitent la prise de décision.
- Découverte multiplateforme : Lens Live facilite la reconnaissance d’articles vus sur les réseaux sociaux ou en magasin physique, puis leur achat immédiat sur Amazon.
Ce qui reste à confirmer
Plusieurs éléments n’ont pas été précisés publiquement et méritent d’être vérifiés avant d’évaluer pleinement l’outil : la portée géographique et le calendrier de déploiement après l’annonce initiale, les modalités exactes de traitement des images et de protection de la vie privée des utilisateurs, le degré de traitement effectué localement sur l’appareil versus dans le cloud, ainsi que des mesures concrètes de performance (latence, taux de correspondance, précision des recommandations). Amazon a indiqué prévoir des tests utilisateurs et des améliorations, mais les détails restent à confirmer.
À retenir
- Lens Live transforme la caméra du smartphone en point d’entrée pour rechercher, comparer et acheter des produits en temps réel.
- L’outil combine détection d’objets, embeddings visuels et le modèle de langage Rufus pour fournir des informations et répondre aux questions.
- Fonctions pratiques : carrousel de correspondances, ajout au panier, sauvegarde en wishlist et bouton « Ask » pour interagir avec Rufus.
- Des questions opérationnelles demeurent : disponibilité géographique, confidentialité des images et répartition du traitement entre appareil et cloud.
- Amazon présente Lens Live comme un « compagnon IA » pour le shopping et prévoit des tests utilisateurs et des évolutions.
Article amélioré avec l'IA - Article original