Google News et Gemini s’offrent l’IA ultime : transcriptions, “branches” de chat et retouches d’images — ce qui va tout changer sur votre smartphone

Google continue d’intégrer l’intelligence artificielle au cœur de ses services, et les récentes découvertes dans les versions en test de Google News et de l’app Gemini montrent que la firme vise désormais une expérience utilisateur plus fluide, multimodale et personnalisée. Pour Happy-Phone, voici un tour d’horizon des nouveautés en préparation — transcription écrite d’Audio Briefing, branches de conversation dans Gemini, améliorations des outils de markup — et ce que tout cela signifie pour votre usage quotidien sur smartphone.

Audio Briefing : lire en plus d’écouter

La fonction Audio Briefing, déployée fin 2025 dans certains pays, transforme Google News en un véritable lecteur de nouvelles généré par IA. Les derniers tests révèlent qu’une transcription complète des bulletins audio est en préparation : un bouton devrait permettre d’afficher la version écrite du résumé tandis que l’audio continue, ou en remplacement si l’on préfère lire. Concrètement, cela offrira :

  • la possibilité de consulter rapidement le contenu sans écouter l’audio ;
  • un accès plus pratique pour revenir à un passage précis via la transcription ;
  • une meilleure accessibilité pour les personnes malentendantes ou en environnement bruyant.
  • Cette nouveauté, encore en test, n’a pas de date de sortie officielle et n’est pas certaine d’être proposée dans tous les pays, mais elle marque une évolution logique : l’audio et le texte se complètent pour offrir une expérience d’information polyvalente sur le mobile.

    Gemini : des conversations qui se ramifient

    Gemini, l’assistant IA de Google, teste une fonctionnalité empruntée à ChatGPT et déjà plébiscitée par les utilisateurs : la création de « branches » ou ramifications d’une même conversation. L’idée est simple mais puissante : à partir d’une réponse existante, l’utilisateur peut ouvrir un nouveau fil de discussion qui conserve le contexte jusqu’à ce point, puis explorer un autre angle sans perdre la discussion initiale. Les bénéfices sont évidents :

  • exploration parallèle d’idées sans perdre le fil de la discussion principale ;
  • comparaison de scenarii ou d’hypothèses à partir d’un même point de départ ;
  • meilleure organisation des échanges complexes (recherches, planifications, brainstorming).
  • Sur smartphone, cette fonctionnalité aide particulièrement pour les usages productifs : tester plusieurs tournures d’un e‑mail, comparer différentes stratégies de voyage, ou simuler des réponses à un client, le tout sans devoir recréer manuellement le contexte à chaque fois.

    Des outils de markup plus puissants pour l’image

    Les outils de modification d’images intégrés à Gemini (sous le nom de code Nano Banana) s’apprêtent à recevoir une mise à niveau importante. Au-delà du simple croquis et de l’ajout de texte, l’interface testerait des fonctions de redimensionnement automatique (format carré, portrait, paysage) et des effets visuels. Une zone de saisie permettra en outre de décrire la retouche souhaitée sans quitter l’éditeur. Pour l’utilisateur mobile, cela se traduit par :

  • un flux de travail plus fluide pour retoucher rapidement une photo destinée aux réseaux sociaux ;
  • la capacité à adapter une image à différents formats sans devoir passer par une app dédiée ;
  • des interactions plus naturelles avec l’IA : on décrit ce que l’on veut et l’outil exécute.
  • Ces évolutions rapprochent Gemini d’un assistant multimédia complet, en particulier utile sur smartphone quand on veut publier vite et bien.

    Personal Intelligence : la personnalisation élargie

    Google déploie progressivement sa Personal Intelligence — capacité de Gemini à exploiter les données que vous avez déjà fournies à Google pour offrir des réponses contextuelles et personnalisées. Après une phase initiale réservée aux abonnés de certains plans, la fonctionnalité est en cours d’ouverture à davantage d’utilisateurs, au moins aux États‑Unis pour l’instant. Attendez‑vous à :

  • des réponses plus contextualisées (calendrier, préférences, historique) ;
  • des suggestions proactives adaptées à vos habitudes ;
  • une intégration renforcée entre Gemini, Chrome et d’autres services Google.
  • Sur mobile, cette personnalisation peut faire gagner un temps précieux — suggestions d’itinéraires, résumés d’emails ou rappels adaptés — mais pose aussi des questions sur la confidentialité des données et le contrôle de ce qui est partagé.

    Impact pratique pour les utilisateurs de smartphone

  • Plus d’options pour consommer l’info : écouter, lire, ou faire les deux en parallèle.
  • Des conversations IA mieux organisées, idéales pour la productivité en mobilité.
  • Des outils de retouche d’images rapides et accessibles directement depuis l’assistant.
  • Plus de personnalisation, mais à surveiller côté vie privée et paramétrages.
  • Ce qu’il reste à surveiller

    Les fonctionnalités découvertes sont prometteuses, mais deux aspects méritent de rester au centre de l’attention :

  • la disponibilité géographique : Google déploie souvent par vagues et certaines fonctions peuvent rester limitées à certains pays pendant des mois ;
  • la transparence sur l’usage des données : Personal Intelligence améliore l’utilité mais nécessite que l’utilisateur comprenne et contrôle ce qui est exploité.
  • Pour conclure — sans conclure, comme demandé — l’évolution de Google News et de Gemini prouve que l’IA devient toujours plus intégrée à notre quotidien mobile. Entre transcriptions instantanées, branches de conversation et outils visuels puissants, le smartphone se transforme peu à peu en un hub intelligent capable d’accompagner nos tâches d’information, de création et d’organisation. Reste à voir comment et quand ces fonctions arriveront réellement dans nos mains, et dans quelles conditions de confidentialité et de contrôle utilisateur.