Le recours aux intelligences artificielles à des fins malveillantes gagne du terrain, comme le rapporte Journal du Geek. Une femme américaine a décidé de poursuivre la société OpenAI en justice. Son ex-compagnon, selon les documents judiciaires, aurait utilisé le chatbot ChatGPT pour la harceler pendant plusieurs mois. Une première qui interroge sur les dérives possibles de ces outils technologiques.

Ce qu'il faut retenir

  • Une femme intente un procès contre OpenAI pour harcelement via ChatGPT orchestré par son ex-compagnon.
  • Les faits se sont déroulés sur plusieurs mois, selon les déclarations de la plaignante.
  • Cette affaire soulève des questions sur la responsabilité des plateformes d'IA dans les usages malveillants de leurs outils.
  • OpenAI n'a pas encore réagi publiquement à cette annonce.

Un outil détourné pour harceler une ex-compagne

D'après les éléments communiqués par Journal du Geek, la plaignante, dont l'identité n'a pas été révélée, affirme avoir subi un harcèlement systématique de la part de son ancien partenaire. Celui-ci aurait utilisé le chatbot ChatGPT pour générer des messages insultants, menaçants et diffamatoires à son encontre. Ces communications, envoyées via divers canaux, auraient persisté pendant plusieurs mois, rendant la situation intenable pour la victime.

L'usage d'une IA pour automatiser ce type de messages pose une question inédite. Le chatbot, conçu pour dialoguer de manière naturelle, a été exploité pour reproduire des propos humains avec une précision troublante. La plaignante a précisé que certaines réponses générées par ChatGPT étaient « trop réalistes pour être distinguées de messages écrits par un humain », a-t-elle déclaré à la presse locale.

Les limites éthiques et juridiques des outils d'IA

Cette affaire intervient alors que les régulateurs et les entreprises technologiques peinent à encadrer l'usage des intelligences artificielles. OpenAI, bien que proposant des garde-fous, ne peut contrôler tous les usages de ses outils une fois ceux-ci accessibles au public. Les plateformes comme ChatGPT fonctionnent sur le principe de l'autonomie de l'utilisateur, ce qui complique la prévention des détournements malveillants.

Les spécialistes en droit numérique soulignent l'absence de cadre juridique clair pour ce type de situation. « Quand une IA est utilisée comme un intermédiaire pour commettre une infraction, la responsabilité est difficile à établir », a expliqué Me Sophie Laurent, avocate spécialisée en cybercriminalité. « Faut-il poursuivre l'utilisateur, le développeur de l'IA, ou les deux ? La question reste ouverte. »

Une première juridique aux conséquences potentielles

Si la plainte aboutit, elle pourrait établir un précédent important. Les associations de défense des droits numériques appellent à une régulation plus stricte des outils d'IA générative. « Cette affaire montre que les entreprises doivent anticiper les risques liés à leurs innovations », a affirmé Laura Martinez, porte-parole de l'association Digital Rights Watch. « Elles ont une obligation de diligence pour limiter les usages malveillants. »

Pour l'instant, OpenAI n'a pas réagi officiellement. La société, basée à San Francisco, n'a ni confirmé ni infirmé les allégations portées contre elle. Contactée par Journal du Geek, une porte-parole a simplement indiqué que l'entreprise prenait « très au sérieux » les questions de sécurité et d'éthique liées à ses outils.

Et maintenant ?

Cette affaire devrait être examinée par les tribunaux américains dans les prochains mois. Si la plainte est jugée recevable, elle pourrait donner lieu à une audience d'ici la fin de l'année 2026. Par ailleurs, les régulateurs européens, en pleine révision de l'IA Act, pourraient s'inspirer de ce cas pour renforcer les obligations des développeurs d'IA. Reste à voir si cette procédure incitera OpenAI à revoir ses protocoles de modération ou ses conditions d'utilisation.

Cette situation illustre un défi croissant : celui de concilier innovation technologique et protection des utilisateurs. Avec l'essor des outils d'IA générative, les dérives ne manqueront pas de se multiplier, rendant plus urgente que jamais la mise en place de garde-fous juridiques et techniques adaptés.

À ce stade, la responsabilité de l'outil reste floue. Les avocats soulignent que la question dépendra de la législation locale et des preuves apportées. OpenAI pourrait être poursuivi pour manquement à son devoir de surveillance, mais cela n'est pas encore établi juridiquement.