S'orienter dans la législation européenne sur l'IA : ce que les dirigeants d'entreprise doivent savoir

Le règlement européen sur l'IA établit une nouvelle norme en matière d'IA responsable, et Workday s'engage à montrer la voie. Découvrez comment notre approche innovante du développement et du déploiement de l'IA s'aligne sur les exigences du règlement tout en aidant les clients à instaurer la confiance dans l'IA et à favoriser son adoption éthique.

Homme travaillant sur un ordinateur près d'une fenêtre

Le règlement européen sur l'IA (EU IA Act), appelé aussi loi sur l'IA de l'UE, est en passe de devenir la norme mondiale en matière de réglementation de l'Intelligence Artificielle (IA). Cette législation novatrice vise à favoriser l'innovation tout en atténuant les risques potentiels associés aux systèmes d'IA. En adoptant une approche fondée sur le risque et en donnant la priorité aux considérations éthiques, le règlement européen sur l'IA crée un précédent pour le développement et le déploiement responsables de l'IA dans le monde entier. 

Compte tenu des implications importantes de cette législation, nombre de nos clients nous ont demandé comment Workday abordait le règlement européen sur l'IA et comment nous nous préparions à intégrer ses exigences. Conscients que s'orienter dans ce nouveau paysage réglementaire peut être complexe, nous souhaitons partager notre approche dans un esprit de transparence et de collaboration. En décrivant notre cadre et les mesures que nous prenons, nous espérons offrir des informations clés et des bonnes pratiques que d'autres pourront adapter à leur propre situation.

Chez Workday, l'IA responsable est un aspect central de notre approche du développement, qui guide chacune de nos actions. Nous nous engageons depuis longtemps en faveur d'une IA responsable « by design », et le règlement européen sur l'IA fournit un cadre précieux pour renforcer et formaliser ces efforts.

Comprendre le règlement européen sur l'IA

Le règlement européen sur l'IA est une étape juridique majeure pour la législation sur l'IA, dont les implications pour quiconque développe ou met en œuvre des technologies d'IA dans l'UE sont considérables. Le règlement classe l'IA dans des catégories fondées sur le risque. Il définit également les rôles et responsabilités pour le développement et le déploiement de la technologie d'IA en fonction de ces catégories.

Le règlement européen sur l'IA introduit quatre catégories d'IA basées sur le risque, dont les exigences diffèrent en fonction de la complexité et de l'ampleur de l'impact :

  • Systèmes d'IA à risque inacceptable : il s'agit des systèmes d'IA interdits en vertu du règlement, par exemple les systèmes qui manipulent les décisions des individus ou prédisent la probabilité d'infractions pénales.
  • Systèmes d'IA à haut risque : il s'agit d'une catégorie de systèmes d'IA strictement réglementés en raison de leur impact potentiel sur les personnes. Ces systèmes d'IA incluent les outils utilisés dans les pratiques d'embauche ou dans le secteur de la santé.
  • Systèmes d'IA à risque spécifique en matière de transparence : ces systèmes désignent les technologies qui interagissent directement avec les personnes, y compris les IA génératives produisant du contenu texte, audio ou vidéo. De tels contenus doivent désormais indiquer qu'ils ont été générés ou manipulés par une IA. Outre les contenus générés, cette catégorie inclut également les chatbots alimentés par l'IA. 
  • Systèmes d'IA à usage général : cette catégorie comprend les systèmes d'IA pouvant être utilisés pour un large éventail de tâches et de résultats, par exemple les outils liés aux modèles GPT.

Le règlement européen sur l'IA est une étape juridique majeure pour la législation sur l'IA, dont les implications pour quiconque développe ou met en œuvre des technologies d'IA dans l'UE sont considérables.

Approche de Workday en matière de rôles et de responsabilités dans la technologie d'IA

Le règlement européen sur l'IA introduit un cadre de responsabilité en définissant des rôles distincts dans le cycle de vie de l'IA pour les fournisseurs de modèles, les déployeurs et les fournisseurs en aval. Pour s'orienter efficacement dans ce cadre, les entreprises doivent d'abord identifier clairement leurs rôles dans la chaîne de valeur de l'IA. Les entreprises peuvent également occuper plusieurs rôles, ce qui nécessite des stratégies de conformité et des cadres de gouvernance adaptables. 

Chez Workday, nous reconnaissons l'importance de comprendre et d'assumer nos responsabilités dans ces trois rôles : 

  • Fournisseur de modèles d'IA : nous développons des technologies d'IA pour le marché, y compris nos propres modèles de Machine Learning (ML) et des fonctionnalités alimentées par l'IA au sein de nos produits.
  • Déployeur : nous déployons et utilisons des systèmes d'IA dans le cadre de nos propres opérations et tirons parti de l'IA pour améliorer nos processus et services internes.
  • Fournisseur en aval : nous intégrons dans nos offres des modèles d'IA tiers, tels que ceux appartenant à la catégorie des systèmes d'IA à usage général, afin d'améliorer les fonctionnalités et d'offrir plus de valeur à nos clients.

Pour nous assurer que nous respectons les normes les plus élevées en matière d'IA responsable, nous avons adopté une approche globale de la conformité. En tant que fournisseur de modèles et de fonctionnalités d'IA, Workday s'appuie sur son solide cadre de gouvernance de l'IA responsable pour répondre aux exigences de conformité du règlement européen sur l'IA. Notre approche en la matière est tournée vers l'avenir et nous la développons depuis 2019

Le programme d'IA responsable de Workday sert déjà nos clients au-delà des normes du secteur, par exemple grâce à notre alignement sur le Cadre de gestion des risques liés à l'IA du NIST (National Institute of Standards and Technology) ainsi qu'à la réalisation de tests et la production de documents au-delà de ce qui est légalement exigé pour les fonctionnalités d'IA à moindre risque. Aujourd'hui, nous adoptons la même approche tournée vers l'avenir pour garantir notre alignement avec le règlement européen sur l'IA.

Plusieurs programmes internes dédiés sont par ailleurs en cours pour renforcer nos pratiques déjà solides afin de nous conformer au règlement. Ces programmes incluent des efforts pour améliorer la transparence, élargir les connaissances en matière d'IA selon le rôle, mettre à jour les politiques de développement et de déploiement liées à l'IA, et améliorer la compréhensibilité de nos systèmes d'IA. 

Notre approche du développement de l'IA

Si nous adhérons aux principes de l'IA responsable dans tous ces domaines, j'aimerais plus particulièrement axer cet article sur notre approche du développement de l'IA, un domaine dans lequel notre responsabilité est importante en ce qui concerne la manière dont nous façonnons la technologie et atténuons les risques potentiels.

Développer et déployer l'IA de manière responsable nécessite une approche structurée et proactive. En intégrant les considérations liées à l'IA responsable à chaque étape de notre cycle de développement, nous nous assurons que nos systèmes d'IA sont non seulement conformes aux réglementations, telles que le règlement européen sur l'IA, mais également alignés sur nos valeurs fondamentales.

Pour nous assurer que nous respectons les normes les plus élevées en matière d'IA responsable, nous avons adopté une approche globale de la conformité.

Notre approche repose sur une méthodologie formalisée basée sur le risque. Nous avons mis à jour notre processus d'évaluation des risques liés à l'IA pour tenir compte des exigences du règlement européen sur l'IA, en veillant à ce que nos procédures d'évaluation s'alignent sur les catégories de risque et les principes de la législation.

Voici un aperçu général de la façon dont nous intégrons l'IA responsable dans notre processus de développement :

Chaque nouveau cas d'usage de l'IA fait l'objet d'une évaluation des risques pendant la phase d'idéation. L'évaluation aligne les catégories de risque correspondantes en fonction des caractéristiques du cas d'usage et de l'utilisation prévue. Des protocoles, ou pratiques, sont ensuite définis pour prendre en compte les risques associés.

Nos pratiques d'IA responsable, dont des exemples sont présentés ci-dessous, visent à garantir que nos produits sont sûrs et conformes aux besoins les plus variés.

Renforcer le potentiel de nos clients à l'ère de l'IA 

Nous sommes convaincus que l'IA responsable passe par la collaboration avec nos clients. En conséquence, nous nous engageons à accroître le pouvoir d'action de ces derniers avec les outils et les ressources dont ils ont besoin pour prendre des décisions éclairées sur la manière d'utiliser l'IA et de gérer leurs données.

Nous fournissons ainsi un large éventail de fonctionnalités pour permettre à nos clients d'allier contrôle et transparence :

  • Activation des fonctionnalités : nos clients décident des fonctionnalités qu'ils souhaitent utiliser ou non, y compris les fonctionnalités basées sur l'IA Workday.
  • Contrôle de l'utilisation des données : les clients contrôlent l'utilisation de leurs données aux fins d'amélioration des modèles de Machine Learning de Workday.
  • Transparence : Workday fournit des ressources allant de la documentation aux outils disponibles dans l'environnement client pour permettre aux clients d'examiner les données utilisées pour améliorer les modèles de Machine Learning.
  • Contrôles d'accès granulaires et sécurité : les clients disposent d'outils pour mettre en place des groupes de sécurité qui peuvent être composés des acteurs impliqués de leur choix, y compris les équipes de gouvernance de l'IA, les équipes chargées de la sécurité et de la confidentialité, le service juridique et l'équipe de conformité. Ces groupes peuvent prendre des décisions relatives à l'utilisation des données dans l'IA Workday. Nous fournissons par ailleurs des outils pour garantir que les contributions de données et les décisions fonctionnent pour les besoins de nos clients.

Notre engagement envers la transparence nous conduit à fournir un éventail de ressources pour que nos clients restent informés et aient en permanence les moyens d'agir. Cela comprend des fiches d'information détaillées décrivant nos fonctionnalités d'IA généralement disponibles. Chaque fiche inclut un aperçu d'une fonctionnalité d'IA, les entrées et sorties du modèle, une présentation de la méthode d'entraînement du modèle et des considérations sur la confidentialité. Nous améliorons par ailleurs régulièrement ces outils et ressources pour aider nos clients à mieux contrôler leur utilisation de l'IA Workday.

Nous sommes convaincus que l'IA responsable passe par la collaboration avec nos clients.

Un parcours continu de collaboration

Notre alignement sur le règlement européen sur l'IA nous permet non seulement de garantir la conformité, mais aussi d'instaurer la confiance parmi nos clients et les acteurs impliqués. Nous nous engageons à fournir une innovation éthique et à contribuer à un avenir où l'IA est utilisée à bon escient.

Chez Workday, nous considérons l'IA responsable comme un effort continu qui nous oblige à anticiper sans cesse l'évolution des normes en matière d'IA et à nous adapter pour répondre aux besoins de nos clients, voire les dépasser. Si l'adoption du règlement européen sur l'IA marque une date importante dans le domaine de l'IA éthique, ce ne sera pas la dernière fois que de nouvelles réglementations affecteront la technologie. Lorsque des changements interviendront, nous serons prêts.

Pour explorer les principes clés, les bonnes pratiques et des exemples concrets d'IA responsable, téléchargez le livre blanc IA responsable : encourager une innovation éthique et transparente.

En lire plus