ChatGPT sur Android pourra bientôt « voir » votre écran — moins de lag, mais quelles données partagées ?
OpenAI teste une nouvelle manière pour ChatGPT d’accéder au contenu de votre écran sur Android, et l’idée est plutôt ingénieuse : réduire le coût en ressources et améliorer la fluidité en évitant la captation continue d’écran via MediaProjection. Concrètement, la procédure actuelle — qui enregistre ou capture le flux d’écran en continu — génère des pop‑ups de permission, consomme beaucoup de CPU et de mémoire, et peut rendre l’appareil moins réactif. La nouvelle méthode observée dans la version expérimentale de l’application mise sur les fonctions d’Accessibilité et les « bubbles » multitâches pour créer une interaction plus ciblée et nettement moins gourmande.
Comment fonctionne la nouveauté détectée dans l’app
La fonctionnalité repérée dans la build 1.2026.118 guide l’utilisateur pour activer un module nommé « ChatGPT screen help » dans les paramètres d’Accessibilité d’Android. L’application demande ensuite l’autorisation des notifications et l’activation des bubbles (ces bulles flottantes qui s’affichent par‑dessus les applications, popularisées par les messageries). Une fois les autorisations accordées, une bulle interactive apparaît à l’écran en permanence — elle reste visible quel que soit l’app que vous utilisez.
En touchant la bulle, vous pouvez poser une question à ChatGPT sur ce qui est affiché à l’instant sur votre écran. Contrairement à l’approche MediaProjection, il ne s’agit pas d’une capture vidéo continue mais d’un accès contextuel et ponctuel : l’assistant analyse le contenu visuel présent et répond sans graver le flux en permanence. Résultat attendu : bien moins de consommation CPU/RAM et une expérience utilisateur plus fluide.
Les atouts techniques de cette approche
Mais attention : Accessibilité rime souvent avec permissions sensibles
Le revers de la médaille, c’est que la fonctionnalité s’appuie sur des droits d’Accessibilité. Ces permissions sont parmi les plus intrusives sur Android : elles permettent de lire l’interface des autres applications, d’interpréter les textes affichés, de détecter les boutons et d’accéder à de nombreuses informations UI. D’un point de vue technique, c’est ce qui rend possible une analyse précise du contexte visuel — mais du point de vue de la vie privée, cela soulève des questions sérieuses.
Les utilisateurs soucieux de la confidentialité pourraient légitimement se demander ce que l’assistant lit exactement, comment ces données sont traitées, conservées, et si elles sont envoyées vers les serveurs d’OpenAI ou analysées en local. Pour beaucoup, l’idée qu’une application tierce puisse « lire » ce qui s’affiche dans n’importe quelle autre app est difficilement acceptable sans garanties précises.
Quels risques et quelles garanties exiger ?
Quelle expérience utilisateur attendre ?
Si OpenAI parvient à convaincre sur les aspects de confidentialité, cette méthode a le potentiel de transformer l’usage de ChatGPT sur mobile. Imaginez pouvoir toucher une bulle pendant que vous lisez un email et demander : « Peux‑tu résumer ce message ? », ou taper sur la bulle en regardant une page produit pour obtenir un comparatif instantané, le tout sans devoir lancer une lourde capture d’écran. Pour les personnes qui utilisent l’assistant comme outil d’aide contextuelle au quotidien, c’est une vraie avancée.
Les limites actuelles et points d’attention
Qu’attendre ensuite ?
Pour l’heure, il n’est pas certain quand et sous quelle forme cette fonctionnalité sera officiellement déployée. OpenAI doit encore lever les obstacles liés à la confidentialité et à la communication envers les utilisateurs. Mais la direction est claire : les grands modèles ne veulent plus seulement converser, ils veulent intervenir de façon contextuelle dans l’environnement numérique de l’utilisateur. La clé sera de le faire sans sacrifier la confiance des utilisateurs — et cela passera par une politique claire sur les permissions, la gestion des données et la possibilité de contrôle total par l’utilisateur.

