Une étude récente menée par des chercheurs de l'ETH Zurich et rapportée par Euronews FR, révèle que l'intelligence artificielle (IA) peut prédire les traits de personnalité d'un utilisateur à partir de son historique de conversations en ligne. Cette capacité de prédiction soulève des questions sur la vie privée et la sécurité des données personnelles.
Cette étude a porté sur 668 utilisateurs de ChatGPT aux États-Unis et au Royaume-Uni, qui ont transmis une copie de leur historique de conversations aux chercheurs. Les données collectées comprennent plus de 62 000 conversations, qui ont été classées en fonction des thèmes abordés. Les chercheurs ont ensuite entraîné un modèle d'IA pour déduire les traits de personnalité des utilisateurs à partir de ces conversations.
Ce qu'il faut retenir
- L'IA peut prédire les traits de personnalité d'un utilisateur à partir de son historique de conversations en ligne avec une précision allant jusqu'à 61 %.
- Les chercheurs ont collecté et analysé plus de 62 000 conversations pour cette étude.
- Les traits de personnalité étudiés incluent l'agréabilité, la conscienciosité, la stabilité émotionnelle, l'extraversion et l'ouverture.
La méthode de l'étude
Les chercheurs ont demandé aux participants de passer un test psychologique standard pour déterminer leurs principaux traits de personnalité. Ensuite, ils ont comparé les résultats du test avec les prédictions faites par le modèle d'IA. Selon le rapport, le modèle d'IA a pu identifier avec précision les traits de personnalité d'un utilisateur, notamment l'agréabilité et la stabilité émotionnelle.
Les résultats de l'étude montrent que l'IA est particulièrement performante pour prédire l'agréabilité et la stabilité émotionnelle, mais a plus de mal avec la conscienciosité. De plus, l'IA obtenait les meilleurs résultats lorsqu'elle disposait d'un historique de conversations plus long à analyser, ce qui suggère que plus une personne utilise l'IA, plus il est probable que sa personnalité puisse être identifiée.
Les implications de l'étude
Si les risques pour les individus restent relativement limités, les chercheurs soulignent qu'il existe « des risques majeurs à grande échelle » si ces données de personnalité sont exploitées par des acteurs malveillants. Par exemple, ils estiment que ces données pourraient alimenter « des campagnes de manipulation à grande échelle diffusant de la désinformation et/ou de la propagande politique ».
Les chercheurs espèrent que leurs résultats pourront servir à développer des outils réduisant le risque de divulguer excessivement des données personnelles à l'IA, comme un système capable de supprimer automatiquement les éléments d'identification.
En conclusion, cette étude souligne l'importance de prendre en compte les risques potentiels liés à l'utilisation de l'IA pour prédire les traits de personnalité et de développer des solutions pour protéger la vie privée des utilisateurs.