De plus en plus d’utilisateurs ouvrent leur cœur à ChatGPT. Mais savent-ils vraiment ce qu’ils risquent à le faire ?
Confier ses secrets à ChatGPT ? Sam Altman le déconseille vivement
Le 27 juillet 2025, lors d’un passage remarqué dans le podcast This Past Weekend, Sam Altman, patron d’OpenAI, a soufflé un vent glacial sur les certitudes des utilisateurs de ChatGPT. Dans un monde où l’IA devient confidente, thérapeute ou confesseur, une vérité dérangeante s’impose : vos conversations avec ChatGPT ne sont ni confidentielles, ni protégées par la loi. Et elles pourraient bien se retourner contre vous.
C’est une phrase qui fait froid dans le dos. Lors de son intervention, Sam Altman a déclaré sans détour : « Ainsi, si vous parlez à ChatGPT de vos affaires les plus sensibles et qu’il y a un procès ou autre, nous pourrions être obligés de produire ces informations. Et je pense que c’est vraiment n’importe quoi ». Et le PDG de poursuivre : « À l’heure actuelle, si vous parlez de ces problèmes à un thérapeute, à un avocat ou à un médecin, il existe un privilège légal. […] Et nous n’avons pas encore trouvé le moyen de le faire pour les conversations avec ChatGPT ».
Ce que Sam Altman souligne ici, c’est l’absence totale d’un cadre juridique équivalent à celui qui protège la relation médecin-patient ou avocat-client. Malgré sa fluidité linguistique et sa bienveillance apparente, ChatGPT reste une interface sans statut légal protecteur.
OpenAI obligé de garder les messages… même supprimés
Le problème ne s’arrête pas là. Dans le cadre de son bras de fer judiciaire avec The New York Times, OpenAI est actuellement contrainte de conserver l’intégralité des conversations des utilisateurs, y compris celles que ces derniers ont effacées. Sam Altman lui-même admet que la situation est « très grave ». Cette rétention obligatoire est particulièrement problématique : les utilisateurs croient supprimer une trace, mais l’entreprise en garde une copie. Et cette copie peut être versée à un dossier juridique, sans que l’utilisateur en soit informé au préalable.
Sam Altman ne le nie pas : ChatGPT est déjà utilisé comme substitut de psychologue, en particulier par les jeunes générations. « Les gens parlent des choses les plus personnelles de leur vie sur ChatGPT. Les jeunes l’utilisent surtout comme un thérapeute, un coach de vie, pour poser des questions sur des problèmes relationnels et sur ce qu’il faut faire », a rappelé le patron d’OpenAI. Or, là encore, aucun cadre juridique ne vient encadrer ces usages. Pas de secret professionnel. Pas de devoir de réserve. Et surtout, aucune limite dans la manière dont ces données peuvent être analysées, stockées, voire utilisées.
La politique d’OpenAI : transparence… conditionnelle
Sur son site officiel, OpenAI insiste : les utilisateurs peuvent désactiver l’enregistrement de leurs conversations à des fins d’entraînement. Mais cela ne signifie ni effacement absolu, ni immunité contre une injonction judiciaire. Et comme l’explique Sam Altman, dans l’état actuel du droit, une requête du parquet suffit pour lever toute confidentialité. Même les comptes professionnels (ChatGPT Enterprise) ou universitaires ne sont pas à l’abri. Bien qu’ils bénéficient de garanties spécifiques, une obligation légale peut toujours forcer OpenAI à produire les enregistrements. La promesse de confidentialité a donc ses limites.
La situation est d’autant plus préoccupante que la plupart des utilisateurs ignorent ces réalités juridiques. Ils s’adressent à ChatGPT avec la même sincérité qu’à un médecin ou un psy. Mais la machine, elle, n’a aucun devoir de réserve. Sam Altman appelle à l’émergence d’un « cadre réglementaire spécifique pour l’IA », capable d’offrir des garanties à la hauteur des enjeux. Mais en l’état actuel, aucun texte législatif, ni au niveau fédéral aux États-Unis, ni à l’international, ne protège véritablement ces conversations.




