L'intelligence artificielle (IA) est de plus en plus présente dans notre vie quotidienne, avec des applications allant des assistants virtuels aux véhicules autonomes. Cependant, cette évolution technologique soulève également des inquiétudes quant à ses risques potentiels. Récemment, des dirigeants de grandes entreprises américaines du secteur, tels que Sam Altman et Dario Amodei, ont lancé des alertes sur les dangers extrêmes de l'IA.

C'est dans ce contexte que Arthur Mensch, cofondateur et PDG de Mistral AI, a partagé ses pensées sur ces alertes lors d'un entretien avec Le Monde et France Inter au sommet de l'IA à New Delhi, qui s'est déroulé du 16 au 20 février. Selon Arthur Mensch, ces alertes sont pour l'essentiel des « discours de distraction ».

Les alertes sur les risques extrêmes de l'IA

Sam Altman, patron d'OpenAI, a évoqué lors du sommet l'idée de créer une sorte d'« Agence internationale de l'énergie atomique » pour assurer une coordination internationale face à l'émergence d'une « superintelligence » susceptible d'apparaître d'ici deux ans. De son côté, Dario Amodei, fondateur d'Anthropic, a publié un long essai intitulé The Adolescence of Technology à la fin janvier, dans lequel il expose les risques tels que la perte de contrôle d'IA avancées ou leur utilisation pour créer des armes biologiques.

Ces déclarations ont suscité un large écho dans la communauté technologique et au-delà, soulignant les préoccupations croissantes quant aux implications de l'IA sur la société. Cependant, Arthur Mensch a une vision différente de ces risques, estimant que le véritable danger de l'IA à venir réside dans son influence massive sur la manière dont les gens pensent et votent.

Les risques de l'influence de l'IA sur la société

Le patron de Mistral AI a déjà évoqué le risque de voir se former un « oligopole de l'information » avec des assistants IA comme ChatGPT (OpenAI) ou Grok (xAI), qu'il décrit comme des potentiels « organes de contrôle de la pensée ». Arthur Mensch redoute des tentatives de manipulations lors d'élections, soulignant ainsi l'importance de considérer les impacts sociétaux de l'IA.

Ces préoccupations mettent en lumière la nécessité d'une régulation et d'une éthique claire dans le développement et la mise en œuvre de l'IA, pour garantir que ces technologies servent l'intérêt général sans compromettre les libertés individuelles ni la démocratie.

La nécessité d'une approche équilibrée

Alors que le débat sur les risques et les bénéfices de l'IA continue, il est essentiel de trouver un équilibre entre la promotion de l'innovation et la protection des valeurs sociétales. Cela nécessite une coopération internationale, ainsi que des discussions approfondies entre les acteurs de l'industrie, les gouvernements et les citoyens.

En conclusion, les alertes sur les risques extrêmes de l'IA, bien que nécessaires pour alerter sur les dangers potentiels, doivent être considérées avec nuance. Comme le souligne Arthur Mensch, les véritables défis de l'IA résident peut-être moins dans les risques techniques extrêmes que dans son influence sur nos sociétés et nos démocraties. Il est donc crucial de poursuivre ces discussions avec sérieux et de travailler ensemble pour garantir que l'IA serve à améliorer notre monde sans en compromettre les fondements.

Les principaux risques associés à l'IA incluent la perte de contrôle d'IA avancées, leur utilisation pour créer des armes biologiques, ainsi que leur influence massive sur la manière dont les gens pensent et votent, pouvant potentiellement manipuler les élections.