Des chercheurs de l’université Cornell ont développé un outil d’intelligence artificielle destiné à guider, sans imposer, nos choix quotidiens. Baptisé « Interactive Explainable Ranking » (IER), ce système vise à structurer la réflexion plutôt qu’à trancher à notre place. Selon Numerama, il est désormais accessible en ligne, gratuitement, pour aider à évaluer des dilemmes variés, du choix d’un animal de compagnie à des décisions professionnelles complexes.
Ce qu'il faut retenir
- Un outil conçu par Chao Zhang et Abe Davis, chercheurs à l’université Cornell, pour structurer les prises de décision.
- L’IER fonctionne comme un « atelier de décision », analysant les critères et valeurs de l’utilisateur pour proposer un classement cohérent.
- Il met en lumière les contradictions entre les valeurs déclarées et les choix concrets, sans remplacer le jugement humain.
- Testé avec succès sur des volontaires et des assistants d’enseignement à Cornell, l’outil a été primé lors de la conférence ACM CHI 2026.
- Disponible en ligne, l’interface est en anglais et nécessite un temps d’adaptation.
Une réponse aux limites des IA traditionnelles
Les modèles d’intelligence artificielle actuels, souvent sollicités pour éclairer des choix personnels ou professionnels, présentent des limites bien connues. Selon Numerama, ils souffrent notamment d’un biais de complaisance, poussant l’utilisateur à se confirmer dans ses préjugés plutôt que de l’inciter à la remise en question. Par ailleurs, leur capacité à saisir la complexité des contextes — comme l’illustrait un benchmark viral récent — reste limitée. Face à ce constat, les chercheurs Chao Zhang et Abe Davis, de l’université Cornell, ont imaginé un outil qui ne décide pas à la place de l’utilisateur, mais l’aide à identifier les incohérences dans ses choix.
L’IER se distingue ainsi des assistants classiques en se concentrant sur la transparence et l’explicabilité des critères. « Nous demandons aux utilisateurs de décrire leurs valeurs en pondérant différents critères de classement, puis nous identifions les contradictions entre les valeurs et les classements », explique Abe Davis dans un communiqué. L’objectif n’est pas de remplacer l’intuition humaine, mais de l’éclairer par une analyse structurée des priorités.
Comment fonctionne concrètement l’IER ?
L’outil propose une interface intuitive permettant de saisir des options à départager, qu’il s’agisse de logements, de projets professionnels ou même de critères pour adopter un chat fictif. L’utilisateur commence par définir ses priorités — par exemple, un animal calme ou adapté à un appartement — avant d’évaluer chaque option selon ces critères. L’IER construit alors un classement progressif, mettant en évidence les compromis inévitables. Par exemple, accepter un chat bruyant mais affectueux plutôt qu’un compagnon discret mais distant.
L’interface permet d’ajuster les critères en temps réel : ajouter une dimension écologique pour le choix d’une voiture, ou intégrer la sécurité pour une décision professionnelle. « Il se peut que l’utilisateur ait inconsciemment privilégié les voitures rouges à des modèles plus esthétiques avec une autre couleur. Dans ce cas, l’outil peut lui signaler ce biais », précise le site de l’université. L’IER agit ainsi comme un miroir des préférences, révélant les écarts entre les intentions affichées et les choix réels.
Des tests concluants en conditions réelles
Pour valider son efficacité, l’équipe de recherche a mené deux expériences distinctes. D’abord, des volontaires ont classé une série de courts-métrages, puis quatre assistants d’enseignement à Cornell ont trié dix projets d’étudiants en infographie. Les résultats, analysés par Digital Trends, montrent que les classements générés par l’IER étaient cohérents, faciles à justifier et alignés avec les évaluations préexistantes. Ces tests ont confirmé que l’outil pouvait s’adapter à des contextes variés, des choix ludiques aux décisions à fort enjeu.
Le travail des chercheurs a été récompensé par le prix du meilleur article lors de la ACM CHI Conference on Human Factors in Computing Systems, l’une des conférences les plus prestigieuses dans le domaine de l’interaction homme-machine. Cette reconnaissance souligne l’originalité de l’approche, qui combine intelligence artificielle et pédagogie décisionnelle.
Un outil réservé aux décisions sérieuses — ou presque
Si l’exemple du choix d’un chat peut sembler anecdotique, les chercheurs insistent sur le fait que l’IER est conçu pour des dilemmes à fort impact : recrutement, évaluation de candidatures ou hiérarchisation de projets. Les auteurs précisent d’ailleurs que l’outil n’est pas adapté aux choix impulsifs, comme celui d’un dessert au restaurant, son interface risquant d’alourdir un processus par nature rapide.
L’interface, bien que gratuite et accessible en ligne, nécessite un temps d’apprentissage. Entièrement rédigée en anglais, elle demande une lecture attentive pour en exploiter toutes les fonctionnalités. Pour les utilisateurs francophones, cela peut représenter un frein temporaire, même si les chercheurs travaillent potentiellement à une version multilingue — une information non confirmée à ce stade.
L’IER incarne une tendance croissante : celle d’une IA au service de l’humain, sans chercher à le supplanter. Dans un monde où les algorithmes influencent de plus en plus nos choix, des outils comme celui-ci rappellent qu’il est possible de concilier technologie et autonomie décisionnelle.
Oui, l’outil est accessible gratuitement en ligne, mais son interface, entièrement en anglais, peut nécessiter un temps d’adaptation. Aucune limite d’utilisation n’a été signalée à ce jour, mais les chercheurs recommandent de l’utiliser pour des décisions à fort enjeu plutôt que des choix rapides.
Absolument. Les chercheurs ont conçu l’outil pour des contextes variés, allant du choix d’un logement à l’évaluation de projets professionnels. Les tests menés à Cornell avec des assistants d’enseignement confirment son efficacité pour des dilemmes structurés.