Les DSI peuvent promouvoir la transparence en levant le voile pour les acteurs impliqués internes et externes, y compris les régulateurs. Décrire dans le détail les pratiques de traitement des données et les mesures de confidentialité peut aider les entreprises à prouver que les données ont été utilisées de manière éthique et transparente. Expliquer quels algorithmes qui ont été choisis et pourquoi peut également montrer comment les biais sont pris en compte et traités.
Même si le type exact de documentation qui sera exigé par les organismes de réglementation reste à déterminer, « il existe un très fort consensus sur la transparence, explique Chandler Morse, Vice President, Public Policy chez Workday. Par exemple, l'avis général est que si l'on utilise l'IA dans les RH, il doit y avoir une transparence totale sur ce qui se passe, comment cela se passe, quelles données sont collectées et quelles conclusions sont tirées. »
Lorsque les entreprises communiquent ouvertement sur l'IA, les collaborateurs sont également plus disposés à poser des questions sur comment et où utiliser les nouvelles applications. Cela réduit le risque que les équipes utilisent l'IA de manière inappropriée et augmente la probabilité qu'elles innovent en toute confiance et de manière responsable.
L'explicabilité réduit l'exposition aux risques
Alors que des directives de conformité sont en cours d'élaboration, l'explicabilité devrait être la boussole du DSI. Dans le contexte de l'IA, l'explicabilité concerne spécifiquement la prise de décision. La transparence offre une visibilité sur la manière dont l'IA est développée et déployée, mais l'explicabilité se concentre sur la façon dont le système pense, et sur la logique qu'il utilise pour tirer des conclusions.
« Que les gouvernements exigent une préapprobation réglementaire ou une auto-évaluation de l'IA – l'Union européenne a opté pour l'auto-évaluation, plaçant ainsi la responsabilité sur les développeurs de logiciels et les fournisseurs d'IA – les DSI devront pouvoir communiquer facilement le fonctionnement interne de ces applications », juge Jens-Henrik Jeppesen, Senior Director, Public Policy chez Workday. Par exemple, les entreprises peuvent être invitées à prouver qu'aucun matériel protégé par le droit d'auteur n'a été utilisé pour entraîner leur IA, même si un tiers a développé le modèle sur lequel elle est basée.
La gestion des collaborateurs en est un bon exemple. Lorsque l'IA est utilisée pour éclairer les décisions d'embauche, de promotion ou de licenciement, les DSI devront répondre à des questions sensibles sur la manière dont les technologies d'IA ont été entraînées, les biais traités et les données confidentielles protégées pendant la mise en œuvre. Il s'agit là d'un point crucial dans la mesure où certains pays envisagent une législation qui rend les entreprises utilisant des modèles d'IA à haut risque – tels que ceux destinés aux soins de santé ou à l'éducation – plus responsables de tout dommage résultant de cette utilisation.
Les modèles d'IA à usage général, appelés modèles de base, peuvent être ajustés pour accomplir tout un éventail de tâches. Les entreprises achètent souvent ces modèles généraux auprès de fournisseurs, mais une fois qu'une entreprise intègre un modèle de base dans ses produits ou ses opérations, ses dirigeants ont la responsabilité de garantir aux régulateurs que la technologie est conforme aux nouvelles règles. Cela signifie que les DSI doivent s'assurer qu'ils reçoivent une documentation complète comprenant des informations sur l'architecture des modèles, l'ingénierie des fonctionnalités, les procédures de test et les mesures de sécurité.
« Les entreprises doivent donc avoir de vrais échanges avec leurs fournisseurs pour s'assurer qu'ils maîtrisent parfaitement les réglementations émergentes et qu'ils disposent de programmes de gouvernance qui s'alignent sur ces exigences réglementaires émergentes », rappelle Jens-Henrik Jeppesen.