Google News et Gemini s’offrent l’IA ultime : transcriptions, “branches” de chat et retouches d’images — ce qui va tout changer sur votre smartphone
Google continue d’intégrer l’intelligence artificielle au cœur de ses services, et les récentes découvertes dans les versions en test de Google News et de l’app Gemini montrent que la firme vise désormais une expérience utilisateur plus fluide, multimodale et personnalisée. Pour Happy-Phone, voici un tour d’horizon des nouveautés en préparation — transcription écrite d’Audio Briefing, branches de conversation dans Gemini, améliorations des outils de markup — et ce que tout cela signifie pour votre usage quotidien sur smartphone.
Audio Briefing : lire en plus d’écouter
La fonction Audio Briefing, déployée fin 2025 dans certains pays, transforme Google News en un véritable lecteur de nouvelles généré par IA. Les derniers tests révèlent qu’une transcription complète des bulletins audio est en préparation : un bouton devrait permettre d’afficher la version écrite du résumé tandis que l’audio continue, ou en remplacement si l’on préfère lire. Concrètement, cela offrira :
Cette nouveauté, encore en test, n’a pas de date de sortie officielle et n’est pas certaine d’être proposée dans tous les pays, mais elle marque une évolution logique : l’audio et le texte se complètent pour offrir une expérience d’information polyvalente sur le mobile.
Gemini : des conversations qui se ramifient
Gemini, l’assistant IA de Google, teste une fonctionnalité empruntée à ChatGPT et déjà plébiscitée par les utilisateurs : la création de « branches » ou ramifications d’une même conversation. L’idée est simple mais puissante : à partir d’une réponse existante, l’utilisateur peut ouvrir un nouveau fil de discussion qui conserve le contexte jusqu’à ce point, puis explorer un autre angle sans perdre la discussion initiale. Les bénéfices sont évidents :
Sur smartphone, cette fonctionnalité aide particulièrement pour les usages productifs : tester plusieurs tournures d’un e‑mail, comparer différentes stratégies de voyage, ou simuler des réponses à un client, le tout sans devoir recréer manuellement le contexte à chaque fois.
Des outils de markup plus puissants pour l’image
Les outils de modification d’images intégrés à Gemini (sous le nom de code Nano Banana) s’apprêtent à recevoir une mise à niveau importante. Au-delà du simple croquis et de l’ajout de texte, l’interface testerait des fonctions de redimensionnement automatique (format carré, portrait, paysage) et des effets visuels. Une zone de saisie permettra en outre de décrire la retouche souhaitée sans quitter l’éditeur. Pour l’utilisateur mobile, cela se traduit par :
Ces évolutions rapprochent Gemini d’un assistant multimédia complet, en particulier utile sur smartphone quand on veut publier vite et bien.
Personal Intelligence : la personnalisation élargie
Google déploie progressivement sa Personal Intelligence — capacité de Gemini à exploiter les données que vous avez déjà fournies à Google pour offrir des réponses contextuelles et personnalisées. Après une phase initiale réservée aux abonnés de certains plans, la fonctionnalité est en cours d’ouverture à davantage d’utilisateurs, au moins aux États‑Unis pour l’instant. Attendez‑vous à :
Sur mobile, cette personnalisation peut faire gagner un temps précieux — suggestions d’itinéraires, résumés d’emails ou rappels adaptés — mais pose aussi des questions sur la confidentialité des données et le contrôle de ce qui est partagé.
Impact pratique pour les utilisateurs de smartphone
Ce qu’il reste à surveiller
Les fonctionnalités découvertes sont prometteuses, mais deux aspects méritent de rester au centre de l’attention :
Pour conclure — sans conclure, comme demandé — l’évolution de Google News et de Gemini prouve que l’IA devient toujours plus intégrée à notre quotidien mobile. Entre transcriptions instantanées, branches de conversation et outils visuels puissants, le smartphone se transforme peu à peu en un hub intelligent capable d’accompagner nos tâches d’information, de création et d’organisation. Reste à voir comment et quand ces fonctions arriveront réellement dans nos mains, et dans quelles conditions de confidentialité et de contrôle utilisateur.
