Depuis sa mise en ligne en 2022, ChatGPT a conquis des millions d’utilisateurs à travers le monde. Capable de répondre à une multitude de requêtes, ce chatbot conçu par l’entreprise américaine OpenAI s’est rapidement imposé comme un assistant polyvalent. Conseiller, confident, voire thérapeute improvisé, il endosse tous les rôles. Pourtant, son utilisation soulève de réels enjeux en matière de protection des données personnelles.
Une popularité qui interroge
Chaque jour, plus d’un milliard d’échanges sont générés sur la plateforme. Qu’il s’agisse de questions liées au travail, à la vie privée, à la santé ou à la finance, ChatGPT est consulté pour tout et par tous. Un enthousiasme massif, qui n’est pas sans conséquences : derrière cette accessibilité apparente, se cachent des risques souvent méconnus.
Des données sensibles à manier avec précaution
La Commission nationale de l’informatique et des libertés (CNIL) alerte régulièrement sur la fragilité des informations confiées à ce type d’outil. Le risque de « perte de contrôle » est bien réel. En clair : toute donnée partagée avec le chatbot peut potentiellement être exploitée, stockée ou réutilisée sans que l’utilisateur en ait conscience.
Parmi les informations à ne surtout pas transmettre : les données bancaires. Numéro de carte, identifiants, RIB… ChatGPT lui-même déconseille leur saisie, n’étant pas conforme aux standards de sécurité bancaire. Le moindre partage pourrait ouvrir la voie à d’éventuelles tentatives de fraude.
Même prudence avec les éléments d’identification personnelle. Adresse postale, numéro de sécurité sociale ou de téléphone : ces données permettent de relier directement une réponse à une personne physique. Or, ChatGPT le reconnaît : ses conversations ne sont ni cryptées, ni conçues pour offrir un espace sécurisé.
Des fuites de données déjà constatées
Plus préoccupant encore, des chercheurs ont démontré la possibilité d’extraire, à partir de requêtes spécifiques, des données personnelles saisies par d’autres utilisateurs. Antoine Boutet (Insa de Lyon) et Alexis Léautier (CNIL), spécialistes des systèmes intelligents, soulignent qu’une simple manipulation technique permettrait à l’IA de reproduire des bribes de conversations passées — révélant parfois des éléments confidentiels de façon involontaire.
Santé, travail, vie privée : où placer la limite ?
Nombreux sont ceux qui consultent ChatGPT pour des questions médicales ou psychologiques. Si l’outil peut fournir des explications générales, il reste inapte à formuler un diagnostic ou à tenir un rôle thérapeutique. D’ailleurs, transmettre des résultats médicaux, même anodins, représente une faille potentielle selon le Règlement général sur la protection des données (RGPD).
Dans le cadre professionnel, la même prudence est de mise. Documents internes, contrats, ou tout contenu relevant de la confidentialité d’entreprise ne devraient jamais être intégrés dans une discussion avec le chatbot. Ces échanges pourraient, à terme, nourrir la base d’entraînement de l’IA et ressortir de manière inattendue dans d’autres contextes.
L’illusion du confident numérique
À l’heure où l’intelligence artificielle est omniprésente, la tentation de confier ses états d’âme à un assistant toujours disponible est grande. Mais cette relation virtuelle peut s’avérer trompeuse. ChatGPT peut écouter, reformuler, proposer des pistes, mais il reste dénué d’empathie et d’intuition humaine.
Sabine Allouchery, psychopraticienne, rappelle qu’un thérapeute humain pose les bonnes questions, là où l’IA se contente de répondre à celles qu’on lui soumet. Joséphine Arrighi de Casanova, membre du collectif MentalTech, met quant à elle en garde contre un repli sur soi : « Chez les personnes en souffrance psychologique, le recours à un chatbot peut accentuer l’isolement, facteur aggravant bien connu. »
Un outil puissant, mais à utiliser avec discernement
ChatGPT peut être un formidable levier d’information, d’apprentissage et même de créativité. Mais son usage exige une vigilance constante, notamment concernant la nature des données partagées. Derrière l’interface conviviale, l’intelligence artificielle ne garantit ni la confidentialité, ni la fiabilité absolue des réponses.
Conclusion : L’essor des agents conversationnels transforme notre rapport au numérique. Mais il rappelle aussi une règle essentielle à l’ère de l’IA : mieux vaut garder pour soi ce que l’on ne confierait pas à un inconnu.
La Rédaction
© Image droits tiers