Ce mardi 12 mai, la question de la surveillance des conversations par l’intelligence artificielle ChatGPT a été abordée dans l’émission Good Morning Business sur BFM Business. Anthony Morel y a analysé les risques liés à la collecte et au traitement des données personnelles des utilisateurs, dans le cadre d’une chronique dédiée aux enjeux éthiques et sécuritaires de l’IA. Selon la plateforme, ce débat s’inscrit dans un contexte où les régulations sur la protection des données, comme le RGPD en Europe, imposent aux entreprises technologiques une transparence accrue sur leurs pratiques de gestion des informations.

Ce qu'il faut retenir

  • Un débat public lancé le 12 mai 2026 dans l’émission Good Morning Business sur BFM Business, avec l’intervention d’Anthony Morel.
  • ChatGPT et la vie privée : la question de la surveillance des échanges utilisateurs par l’IA a été posée, dans un contexte réglementaire strict.
  • Le RGPD en ligne de mire : les pratiques de collecte de données de ChatGPT sont analysées au regard des obligations légales européennes.
  • Une émission diffusée quotidiennement du lundi au vendredi, disponible en podcast sur BFM Business.

Une émission dédiée aux défis technologiques et économiques

Diffusée chaque matin sur BFM Business, Good Morning Business propose une analyse des enjeux technologiques, économiques et financiers à travers plusieurs chroniques. Ce mardi 12 mai, la question de la confidentialité des données utilisateurs de ChatGPT a été mise en lumière, avec un focus sur les mécanismes de surveillance potentielle des conversations. Selon BFM Business, cette émission s’adresse aux professionnels et aux décideurs économiques, tout en abordant des sujets transversaux comme l’innovation, les marchés financiers ou les politiques publiques.

Parmi les invités et chroniqueurs de la journée figuraient notamment Eva Jacquot pour sa chronique Morning Retail, qui a évoqué l’interdiction des produits alimentaires au CBD en France, ainsi qu’Annalisa Cappellini, qui a analysé la position du Premier ministre britannique Keir Starmer sur l’Union européenne. Ces interventions illustrent la diversité des sujets traités dans l’émission, qui oscille entre actualité économique, innovation technologique et débats sociétaux.

ChatGPT face aux exigences du RGPD : entre innovation et protection des données

L’intervention d’Anthony Morel a porté sur les risques liés à la collecte et au stockage des données par les modèles d’IA comme ChatGPT. Selon BFM Business, le débat s’articule autour de plusieurs interrogations : dans quelle mesure OpenAI, l’entreprise derrière ChatGPT, surveille-t-elle les échanges des utilisateurs ? Et surtout, ces pratiques sont-elles conformes aux exigences du Règlement général sur la protection des données (RGPD), qui encadre strictement le traitement des données personnelles en Europe.

Comme le rappelle BFM Business, le RGPD impose aux entreprises de garantir la transparence sur leurs méthodes de collecte, ainsi que le droit pour les utilisateurs de demander l’effacement de leurs données. Cependant, les mécanismes exacts de fonctionnement de ChatGPT en matière de traitement des données restent opaques pour une partie du public. Ce flou alimente les craintes d’une utilisation abusive des informations personnelles, d’autant que l’IA repose sur l’analyse massive de données pour améliorer ses réponses.

Les réactions des autorités et des experts

Si OpenAI n’a pas communiqué publiquement sur d’éventuelles modifications de ses pratiques en réponse aux critiques, le sujet a déjà suscité des réactions dans les cercles juridiques et technologiques. Des experts en protection des données ont souligné, selon BFM Business, que les entreprises développant des IA génératives devraient renforcer leurs politiques de confidentialité, notamment en clarifiant les finalités de la collecte des données utilisateurs. Certains observateurs estiment même que des audits indépendants pourraient être nécessaires pour évaluer la conformité de ces outils avec le RGPD.

De son côté, la Commission nationale de l’informatique et des libertés (CNIL) en France n’a pas encore pris de position officielle sur le cas spécifique de ChatGPT. Cependant, l’autorité française a déjà rappelé à plusieurs reprises que les entreprises du numérique devaient se conformer aux règles européennes, sous peine de sanctions pouvant aller jusqu’à 4 % de leur chiffre d’affaires mondial. Pour l’heure, aucune procédure n’a été engagée contre OpenAI en France, mais la question pourrait gagner en visibilité dans les mois à venir.

Et maintenant ?

Plusieurs scénarios pourraient se dessiner dans les prochains mois. D’une part, OpenAI pourrait être amenée à publier une communication officielle pour rassurer ses utilisateurs sur l’usage des données, notamment en détaillant ses politiques de confidentialité. D’autre part, les régulateurs européens pourraient décider d’engager des investigations, à l’image de ce qui a été fait pour d’autres géants du numérique. Enfin, ce débat pourrait accélérer l’adoption de nouvelles normes sectorielles, afin d’encadrer plus strictement l’usage des IA dans un cadre légal clair.

Pour les utilisateurs, une vigilance accrue s’impose : vérifier les paramètres de confidentialité des outils qu’ils utilisent, privilégier les plateformes transparentes sur leurs pratiques, et se tenir informés des évolutions réglementaires. L’enjeu dépasse désormais la simple question technique pour toucher aux fondements mêmes de la confiance dans l’intelligence artificielle.

Ce sujet sera probablement réabordé dans les prochaines éditions de Good Morning Business, alors que l’innovation technologique continue de bousculer les cadres juridiques et éthiques existants.

Les principaux risques incluent l’exposition des données personnelles à des tiers, une utilisation non consentie des échanges pour entraîner les modèles d’IA, ainsi que des violations potentielles du RGPD. En cas de faille de sécurité ou de non-respect des obligations légales, OpenAI s’expose à des sanctions financières et à une perte de confiance des utilisateurs.

Le RGPD encadre strictement le traitement des données personnelles en Europe. Les entreprises doivent garantir la transparence sur leurs méthodes de collecte, permettre aux utilisateurs d’accéder, rectifier ou supprimer leurs données, et justifier la finalité de leur utilisation. Les manquements peuvent entraîner des amendes allant jusqu’à 4 % du chiffre d’affaires mondial.