Un résident de Floride de 26 ans a été arrêté ce week-end pour le meurtre d’un couple d’étudiants, selon Ouest France. Les enquêteurs ont découvert que le suspect s’était tourné vers l’intelligence artificielle pour organiser le crime, notamment en interrogeant ChatGPT sur les moyens de dissimuler un cadavre.
Ce qu'il faut retenir
- Un suspect de 26 ans arrêté en Floride pour le meurtre d’un couple d’étudiants.
- Les meurtres seraient survenus samedi 25 avril 2026, selon les autorités locales.
- Le suspect aurait utilisé ChatGPT pour planifier le crime, en demandant si enfermer un cadavre dans un sac-poubelle était une méthode efficace.
- Les victimes étaient des étudiants, sans autre précision sur leur identité ou leur établissement.
- L’enquête est en cours pour déterminer les motivations exactes du suspect.
Un crime planifié via une intelligence artificielle
Les autorités floridiennes ont révélé que le suspect, dont l’identité n’a pas été divulguée, aurait consulté ChatGPT pour obtenir des conseils sur l’élimination d’un cadavre. Selon les éléments recueillis par les enquêteurs, il aurait posé des questions précises sur la meilleure façon de se débarrasser d’un corps, notamment en utilisant un sac-poubelle et une benne à ordures. Ces échanges, bien que troublants, n’ont pas encore permis de déterminer si l’IA a directement influencé son acte.
Ce cas soulève à nouveau des interrogations sur l’utilisation des outils d’intelligence artificielle dans des contextes criminels. En Floride, où les lois sur les armes à feu et la légitime défense sont particulièrement permissives, les autorités n’excluent aucune piste pour comprendre les motivations du suspect. L’enquête se poursuit pour établir les circonstances exactes des meurtres et le rôle éventuel de l’IA dans la préparation du crime.
Un couple d’étudiants victime d’un acte d’une extrême violence
Les deux victimes, un homme et une femme, étaient des étudiants dont l’identité n’a pas encore été communiquée par les autorités. Leur corps a été découvert dans des circonstances qui restent floues, mais les enquêteurs évoquent une possible dissimulation après les faits. D’après les premiers éléments, les meurtres auraient eu lieu dans la journée du samedi 25 avril 2026, avant que le suspect ne soit interpellé en fin de journée.
Les proches des victimes, contactés par les médias locaux, ont exprimé leur stupeur face à l’horreur de la situation. « Nous ne comprenons pas comment une telle chose a pu se produire », a déclaré un proche sous couvert d’anonymat. Les autorités ont confirmé que les victimes n’avaient aucun lien connu avec le suspect avant les faits, ce qui rend ce cas d’autant plus incompréhensible pour leur entourage.
Les premières réactions des autorités et des spécialistes
Les services de police du comté concerné ont indiqué que l’enquête était « complexe » en raison des éléments inhabituels liés à l’utilisation de ChatGPT. « Nous prenons ce cas très au sérieux, car il pourrait établir un précédent sur l’utilisation de l’IA dans des actes criminels », a déclaré un porte-parole des forces de l’ordre. Les procureurs n’ont pas encore précisé si l’accusé pourrait être poursuivi pour une infraction liée à l’utilisation de l’IA, en plus des chefs d’accusation de meurtre.
Du côté des experts en cybersécurité et en droit pénal, certains soulignent que ce cas illustre les risques liés à l’accessibilité des outils d’IA. « Ces technologies peuvent être détournées à des fins malveillantes, même si elles sont conçues pour aider », a commenté un juriste spécialisé en intelligence artificielle. Les régulateurs américains pourraient être amenés à se pencher sur la question dans les mois à venir.
Ce drame rappelle également les débats en cours sur la régulation des outils d’intelligence artificielle, notamment leur potentiel à faciliter des actes criminels. Les autorités floridiennes ont d’ores et déjà indiqué qu’elles collaboreraient avec des experts en IA pour évaluer les risques liés à ces technologies. Reste à voir si ce cas accélérera les discussions au niveau national sur ce sujet.
Non. D’après les autorités et les juristes consultés, l’outil d’IA ne peut pas être tenu pour responsable pénalement. Seule la personne ayant utilisé ChatGPT pour planifier le crime pourrait être poursuivie. Cependant, ce cas pourrait relancer le débat sur la responsabilité des plateformes technologiques en matière de modération et de prévention des usages malveillants.