
Les outils basés sur l’intelligence artificielle (IA), tels que ChatGPT, Gemini ou Perplexity, proposent désormais des modes temporaires permettant de dialoguer sans que les échanges soient conservés sur le long terme. Cette avancée vise à rassurer l’utilisateur soucieux de préserver sa vie privée, tout en répondant aux préoccupations croissantes concernant la protection des données.
Avec l’introduction de son nouveau mode «discussion temporaire», Gemini garantit que les conversations ne seront pas utilisées pour personnaliser le service ni pour perfectionner les modèles d’IA. ChatGPT, avec son chat éphémère, et Perplexity, avec son mode incognito, adoptent une approche comparable: les informations partagées restent hors des historiques habituels et ne servent théoriquement pas à entraîner les modèles.
L’utilisateur reste cependant dépendant de la durée de conservation choisie par chaque acteur. Par exemple, Google précise que les données sont conservées durant 72 heures par Gemini, notamment pour assurer la sécurité et la cohérence de l’expérience, avant d’être effacées, selon les informations en lien ci-dessus. Perplexity articule une durée de 24 heures, tandis qu’OpenAI se réserve le droit de conserver ces informations 30 jours dans ChatGPT!
Respect de la vie privée: entre discours et réalité
Théoriquement, l’internaute contrôle son activité et peut activer ou désactiver l’enregistrement des échanges dans les paramètres. Toutefois, il est essentiel de comprendre exactement ce que recouvrent les «données d’activité» ou les «téléversements»: il s’agit des fichiers, images ou vidéos transmis à l’outil, qui peuvent être analysés pour «améliorer le service» si l’option d’enregistrement est active.
La dissociation des conversations du compte, avant tout traitement par des tiers, est censée renforcer la confidentialité. Mais le passage par des «examinateurs humains» au sein des entreprises pour vérifier les contenus peut soulever la question de la véritable anonymisation de l’information. Trop souvent, il règne un certain flou en la matière. Beaucoup de questions restent en suspens…
Faut-il accorder sa confiance?
Finalement, tout repose sur la bonne foi et l’éthique des sociétés développant et exploitant ces outils d’IA. Aucune d’entre elles ne fait l’objet d’un contrôle systématique par une entité indépendante veillant au respect à tous les niveaux des promesses émises. Comme je l’ai déjà écrit, il manque clairement une régulation en la matière.
Le citoyen soucieux de sa vie privée doit donc s’interroger et rester vigilant. Sans la mise en place d’un système d’audit extérieur et totalement indépendant, rien ne garantit que les pratiques internes sont conformes aux engagements affichés. La prudence reste donc de mise avant de partager des informations sensibles, même dans les modes «temporaire», «éphémère» ou «incognito».
Xavier Studer