À l'occasion du Forum InCyber 2026 qui se tient actuellement au Grand Palais à Lille, la question du Shadow AI et de son impact sur les entreprises est au cœur des débats. Le Shadow AI, pratique consistant à utiliser des outils d'IA non autorisés en interne, représente un défi croissant dans l'écosystème cyber, nécessitant une approche stratégique réfléchie.
Ce qu'il faut retenir
- Le Shadow AI est une pratique émergente consistant à utiliser des outils d'IA non validés par l'entreprise.
- L'interdiction des outils IA peut pousser les employés à les utiliser clandestinement, augmentant les risques pour la sécurité des données.
- La responsabilité en cas de fuite de données dépend de l'usage et de l'autorisation des outils IA au sein de l'entreprise.
Une stratégie d'intégration essentielle
Face à la montée en puissance du Shadow AI, Ivan Rogissat de Zscaler met en garde contre l'interdiction pure et simple des outils IA en entreprise. Cette approche, selon lui, conduit les employés à contourner les règles et à opérer dans l'ombre, réduisant ainsi la visibilité sur les flux de données et accroissant les risques de sécurité.
Équilibre entre performance et sécurité
La performance des outils IA est devenue un critère essentiel pour les entreprises, qui doivent concilier efficacité et protection des données sensibles. Identifier les informations critiques et prévenir les fuites devient donc une priorité, notamment en faisant appel à l'IA pour classifier et sécuriser les données.
Responsabilités en cas de fuite de données
En cas de compromission des données, la responsabilité varie selon le scénario. Si la fuite survient via un outil IA approuvé en interne, la direction informatique est tenue pour responsable de sécuriser le système. En revanche, en cas de Shadow AI, c'est l'utilisateur ayant outrepassé les règles qui est en faute.
