Trois conseils pour aider les DSI à s'adapter à l'évolution des réglementations de l'IA

L'arrivée de l'IA dans l'entreprise est en train de révolutionner notre façon de travailler, et nous pouvons nous attendre à une série de nouvelles réglementations pour encadrer son utilisation responsable. Mais comment les DSI peuvent-ils se préparer et répondre à ces nouvelles réglementations ? Voici trois conseils pour vous y aider.

Trois conseils pour aider les DSI à s'adapter à l'évolution des réglementations de l'IA

Alors que les dirigeants mondiaux commencent à façonner les politiques en matière d'IA, les DSI doivent prêter une attention toute particulière à la transparence, à la confidentialité des données et à la responsabilité des fournisseurs.  

L'IA évolue à une vitesse vertigineuse, mais comme souvent lorsqu'il s'agit de technologies, les réponses politiques ont du mal à suivre le rythme.

Les prochaines années promettent toutefois d'être importantes en matière de réglementation de l'IA, alors que les dirigeants mondiaux élaborent des politiques visant à régir les applications d'IA de nouvelle génération, y compris les grands modèles de langage (LLM) comme ChatGPT. Les décideurs politiques de l'Union européenne, par exemple, se sont mis d'accord sur les bases de la loi sur l'IA, un vaste ensemble de règles destinées à encadrer l'utilisation de l'IA pour en exploiter le potentiel tout en atténuant ses risques.

La forme exacte de cette réglementation de l'IA va continuer d'évoluer et nécessitera probablement de constantes mises à jour. Après tout, ChatGPT n'en est encore qu'à ses débuts. Voici toutefois quelques-unes des questions qui méritent d'être examinées :

  • Dans une économie mondialisée, comment les différents pays permettront-ils et limiteront-ils l'utilisation de l'IA ? 

  • Comment l'IA peut-elle exploiter les données tout en garantissant que les informations sensibles restent sécurisées et protégées ?

  • Quelles pratiques peuvent le mieux atténuer les biais dans les applications et les résultats de l'IA ?

  • Quelle documentation sera nécessaire pour prouver que l'IA a été développée de manière responsable ?

Alors que les agences gouvernementales et les ONG continuent de se débattre avec ces questions cruciales, les DSI se retrouvent sur la sellette. Même si aller de l'avant dans un contexte d'incertitude réglementaire comporte des risques,

retarder le développement et le déploiement d'applications d'IA pourrait avoir des conséquences à long terme sur la rentabilité et la croissance. 

« Si vous voulez réguler l'IA, vous ne pouvez pas le faire en régulant la technologie, car celle-ci évolue. Il faut donc réguler les utilisateurs et tenir compte du contexte. »

Thomas Boué Director General, Policy, Business Software Alliance (BSA)

Risques mis à part, 60 % des entreprises adoptent l'IA et le Machine Learning (ML) d'une manière ou d'une autre, selon le rapport C-Suite Global AI Indicator de Workday. L'étude a par ailleurs révélé que la responsabilité d'un déploiement réussi de l'IA au sein de l'entreprise incombera aux leaders IT. Pour garder une longueur d'avance, les DSI doivent identifier la manière dont l'entreprise peut tirer profit de l'IA, définir des cas d'usage clairs et introduire des politiques de gouvernance qui permettront une utilisation responsable de l'innovation en matière d'IA.

« Si vous voulez réguler l'IA, vous ne pouvez pas le faire en régulant la technologie, car celle-ci évolue. Il faut donc réguler les utilisateurs et tenir compte du contexte, estime Thomas Boué, Director General, Policy, à la Business Software Alliance (BSA). Dans les utilisations à haut risque de l'IA, l'idée n'est pas d'empêcher l'innovation, mais de mettre en place des garde-fous pour garantir que l'IA puisse être utilisée, développée et déployée au profit de la société. »

Voici trois conseils à l'attention des DSI pour guider leurs pratiques en matière d'IA à mesure que la technologie et les réglementations évoluent.

 

La transparence avant tout

Si aucun DSI ne souhaite investir dans l'innovation pour voir ensuite des changements réglementaires le freiner dans son élan, l'IA n'en demeure pas moins une opportunité trop prometteuse pour la laisser passer. Pour réaliser des progrès significatifs dans un marché imprévisible, les DSI doivent exiger – et permettre – la transparence au sein de l'entreprise et de l'écosystème.  

Cela commence par communiquer clairement où et comment l'IA sera utilisée, ainsi que les objectifs de l'entreprise en la matière. Avec tant d'inconnues encadrant le débat sur l'IA, une transparence radicale permet de définir les attentes quant à ce que les applications seront capables de réaliser, d'atténuer les craintes des acteurs impliqués et de faire preuve de responsabilité.

« L'avis général est que si l'on utilise l'IA dans les RH, il doit y avoir une transparence totale sur ce qui se passe, comment cela se passe, quelles données sont collectées et quelles conclusions sont tirées. »

Chandler C. Morse Vice President, Public Policy, Workday

Les DSI peuvent promouvoir la transparence en levant le voile pour les acteurs impliqués internes et externes, y compris les régulateurs. Décrire dans le détail les pratiques de traitement des données et les mesures de confidentialité peut aider les entreprises à prouver que les données ont été utilisées de manière éthique et transparente. Expliquer quels algorithmes qui ont été choisis et pourquoi peut également montrer comment les biais sont pris en compte et traités.

Même si le type exact de documentation qui sera exigé par les organismes de réglementation reste à déterminer, « il existe un très fort consensus sur la transparence, explique Chandler Morse, Vice President, Public Policy chez Workday. Par exemple, l'avis général est que si l'on utilise l'IA dans les RH, il doit y avoir une transparence totale sur ce qui se passe, comment cela se passe, quelles données sont collectées et quelles conclusions sont tirées. »  

Lorsque les entreprises communiquent ouvertement sur l'IA, les collaborateurs sont également plus disposés à poser des questions sur comment et où utiliser les nouvelles applications. Cela réduit le risque que les équipes utilisent l'IA de manière inappropriée et augmente la probabilité qu'elles innovent en toute confiance et de manière responsable.

 

L'explicabilité réduit l'exposition aux risques 

Alors que des directives de conformité sont en cours d'élaboration, l'explicabilité devrait être la boussole du DSI. Dans le contexte de l'IA, l'explicabilité concerne spécifiquement la prise de décision. La transparence offre une visibilité sur la manière dont l'IA est développée et déployée, mais l'explicabilité se concentre sur la façon dont le système pense, et sur la logique qu'il utilise pour tirer des conclusions.  

« Que les gouvernements exigent une préapprobation réglementaire ou une auto-évaluation de l'IA – l'Union européenne a opté pour l'auto-évaluation, plaçant ainsi la responsabilité sur les développeurs de logiciels et les fournisseurs d'IA – les DSI devront pouvoir communiquer facilement le fonctionnement interne de ces applications », juge Jens-Henrik Jeppesen, Senior Director, Public Policy chez Workday. Par exemple, les entreprises peuvent être invitées à prouver qu'aucun matériel protégé par le droit d'auteur n'a été utilisé pour entraîner leur IA, même si un tiers a développé le modèle sur lequel elle est basée.

La gestion des collaborateurs en est un bon exemple. Lorsque l'IA est utilisée pour éclairer les décisions d'embauche, de promotion ou de licenciement, les DSI devront répondre à des questions sensibles sur la manière dont les technologies d'IA ont été entraînées, les biais traités et les données confidentielles protégées pendant la mise en œuvre. Il s'agit là d'un point crucial dans la mesure où certains pays envisagent une législation qui rend les entreprises utilisant des modèles d'IA à haut risque – tels que ceux destinés aux soins de santé ou à l'éducation – plus responsables de tout dommage résultant de cette utilisation.  

Les modèles d'IA à usage général, appelés modèles de base, peuvent être ajustés pour accomplir tout un éventail de tâches. Les entreprises achètent souvent ces modèles généraux auprès de fournisseurs, mais une fois qu'une entreprise intègre un modèle de base dans ses produits ou ses opérations, ses dirigeants ont la responsabilité de garantir aux régulateurs que la technologie est conforme aux nouvelles règles. Cela signifie que les DSI doivent s'assurer qu'ils reçoivent une documentation complète comprenant des informations sur l'architecture des modèles, l'ingénierie des fonctionnalités, les procédures de test et les mesures de sécurité.

« Les entreprises doivent donc avoir de vrais échanges avec leurs fournisseurs pour s'assurer qu'ils maîtrisent parfaitement les réglementations émergentes et qu'ils disposent de programmes de gouvernance qui s'alignent sur ces exigences réglementaires émergentes », rappelle Jens-Henrik Jeppesen. 

Les entreprises n'attendent pas que les gouvernements leur disent comment développer la technologie. Elles ont plutôt besoin de garde-fous pour garantir à leurs clients que ces produits et applications sont sûrs.

Les DSI doivent également savoir où les équipes internes utilisent le modèle de base, comment ce modèle a été intégré aux produits et opérations de l'entreprise et quelles données supplémentaires ont été utilisées pour affiner l'application. À mesure que l'adoption augmente, garantir l'explicabilité devient une tâche qui s'étend à toute l'entreprise. « L'IA n'est plus un outil standard qu'il suffit d'installer sur votre système pour qu'il fonctionne, avertit Thomas Boué. Il s'agit de quelque chose qui se négocie, se discute et qui change tout le temps. »

 

Des garanties pour encourager l'innovation

Les entreprises réclament rarement plus de réglementation, mais lorsqu'il s'agit d'IA, la plupart des acteurs du secteur s'accordent sur la nécessité de meilleures garanties.  

Les entreprises n'attendent pas que les gouvernements leur disent comment développer la technologie. Elles ont plutôt besoin de garde-fous pour garantir à leurs clients que ces produits et applications sont sûrs. « La sûreté réglementaire s'accompagne d'un certain niveau de confiance », explique Chandler Morse.

Pour renforcer la confiance pendant l'élaboration des réglementations, les DSI doivent examiner ce que font les leaders de l'IA dans ce domaine. Les précurseurs qui déploient l'IA pour les RH se concentrent par exemple sur la protection des droits fondamentaux des collaborateurs individuels, des candidats et des postulants à chaque étape du processus.  

Adopter une approche proactive prépare également les entreprises multinationales aux inévitables variations de la législation sur l'IA à travers le monde. Définir les termes clés et s'aligner sur les principes fondamentaux de l'IA responsable, notamment la transparence, l'explicabilité, l'atténuation de la discrimination et des biais, ainsi que la protection de la vie privée, peut aider les entreprises à aller plus loin plus rapidement, tout en permettant également la collaboration entre les juridictions.

« Il existe un objectif commun, à savoir disposer d'un environnement interopérable pour l'innovation et le déploiement de ces technologies, estime Jens-Henrik Jeppesen. La plupart des pays ont des objectifs globalement similaires : bénéficier de tous les avantages de cette technologie, tout en garantissant qu'elle est sûre, fiable et qu'elle peut être utilisée en toute confiance. »

En lire plus