Gemini de Google peut analyser le monde en direct ?


Episode Artwork
1.0x
0% played 00:00 00:00
Mar 25 2025 2 mins   392

Et si votre assistant vocal voyait ce que vous voyez ? C’est désormais une réalité avec Gemini Live, la dernière avancée de Google en matière d’intelligence artificielle. Souvenez-vous, il y a un an, lors de la conférence Google I/O 2024, l’entreprise présentait le Projet Astra : une IA capable d’analyser son environnement grâce à la caméra du smartphone. Aujourd’hui, cette technologie est déployée et déjà repérée par certains utilisateurs.


Grâce à Gemini Live, Google pousse encore plus loin l’interaction homme-machine. L’IA peut désormais analyser en temps réel ce qui apparaît à l’écran ou ce qui est filmé par la caméra du téléphone. Une fonction qui change la donne : il suffit de pointer son smartphone vers un objet inconnu pour obtenir instantanément des informations précises. Vous avez une application que vous ne comprenez pas ? Montrez-la à Gemini, et il vous guidera. Besoin d’aide pour un problème technique ? L’IA vous explique directement en observant votre écran.


C’est un utilisateur de smartphone Xiaomi qui a eu la surprise de découvrir cette nouvelle fonctionnalité et de la partager sur Reddit, captures d’écran et vidéo à l’appui. On le voit utiliser Gemini Live pour analyser son écran d’accueil et obtenir des explications sur ses notifications et ses widgets. Un aperçu concret du futur des assistants virtuels ! Pour l’instant, cette innovation est uniquement disponible pour les abonnés du plan Google One AI Premium, facturé 21,99 euros par mois. Un moyen pour Google de monétiser son IA tout en testant ses avancées auprès d’un public restreint avant un déploiement plus large.


Avec cette mise à jour, Google rattrape son retard sur OpenAI et Amazon. ChatGPT propose depuis plusieurs mois une Live Camera similaire, et Alexa+, le futur assistant d’Amazon, intégrera lui aussi une vision en direct via les écrans connectés. À quand un assistant intégré dans des lunettes connectées, capable de voir et d’interagir avec le monde sans même sortir son smartphone ? Google pose les bases d’une intelligence artificielle plus immersive et intuitive, où l’utilisateur n’a plus besoin de taper une requête, mais simplement de montrer. Un pas de plus vers un futur où l’IA ne sera plus seulement une voix, mais un véritable compagnon numérique capable de voir et comprendre notre environnement.



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.