Développeurs et déployeurs : une collaboration essentielle pour l'IA responsable

Les développeurs de systèmes d'IA et les entreprises qui déploient et utilisent leurs technologies doivent travailler ensemble pour s'assurer que l'IA soit utilisée à des fins bénéfiques. Toutes les parties de la chaîne de valeur de l'IA ont un rôle à jouer dans le développement et l'utilisation responsables de l'IA.

Groupe de collaborateurs en réunion dans un espace de travail ouvert.

Pour garantir un impact positif de l'IA sur la société, nous devons mettre en place une responsabilité partagée entre ceux qui développent l'IA et ceux qui l'utilisent dans le cadre de leur travail. L'IA responsable est en effet un travail d'équipe où chaque acteur de la chaîne de valeur joue un rôle crucial pour créer l'avenir que nous voulons tous.

Voici quelques bonnes pratiques pour les développeurs de technologies d'IA, comme Workday, et les utilisateurs de ces technologies, comme nos clients.

Meilleures pratiques pour développer une IA responsable

Les principes suivants sont fondamentaux pour une IA responsable et constituent les meilleures pratiques que nous suivons et encourageons chez les autres développeurs. De plus, cette approche comporte plusieurs volets et exige une adhésion et un soutien à tous les niveaux de l'entreprise. L'IA responsable n'est pas le travail d'une seule personne, d'une seule équipe ou d'un seul comité de pilotage : c'est l'affaire de toute l'entreprise. Elle doit être reconnue et diffusée largement par le leadership.

Effectuer une évaluation cohérente des risques liés à l'IA. Chaque nouveau produit d'IA que nous développons passe par notre processus d'évaluation évolutive des risques, conçu pour nous aider à nous aligner sur les catégories de risques définies par la loi sur l'IA de l'Union européenne. Cette analyse nous aide à déterminer efficacement le niveau de risque du nouveau cas d'usage en fonction de son contexte et de ses caractéristiques, y compris la conception technique et du modèle, l'impact potentiel sur les opportunités économiques des individus et les préoccupations liées à la surveillance.

Les cas d'usage « à haut risque » se distinguent des cas d'usage « refusés ». Un cas « à haut risque » signifie qu'il nécessite davantage de directives et de garde-fous, et doit faire l'objet d'une réflexion plus poussée et d'une plus grande attention. Les cas d'usage « refusés », tels que la surveillance intrusive de la productivité et la surveillance biométrique, sont contraires à nos valeurs. Par conséquent, nous choisissons de ne pas développer de solutions appartenant à cette catégorie.

Les développeurs avancés auront mis en place les programmes nécessaires, notamment des équipes dédiées à la gouvernance de l'IA responsable.

Respecter les directives appropriées en matière d'IA responsable. Pour les cas d'usage autorisés, le résultat de l'évaluation des risques spécifie les mesures d'atténuation requises sous forme de directives. Cela aide l'équipe de développement à comprendre et à documenter le respect des directives pertinentes à l'étape de création de la solution. Pour les technologies qui présentent un risque plus élevé, comme celles que nos clients utiliseront pour les aider à prendre des décisions importantes pouvant impacter les opportunités économiques des collaborateurs, nous exigeons un plus grand nombre de directives d'IA responsable par rapport aux technologies à faible risque, telles que celles destinées à la détection des anomalies budgétaires. Les directives sur l'IA responsable couvrent des domaines tels que la transparence, l'équité, l'explicabilité, l'intervention humaine, la qualité des données et la robustesse. L'objectif est double : afin de fournir à nos clients des technologies d'IA fiables et de qualité, nous devons éviter d'introduire des conséquences involontaires, telles que des biais, et nous assurer également de respecter des cadres réglementaires et des meilleures pratiques qui ne cessent d'évoluer.

Faire preuve de transparence vis-à-vis des clients. Workday fournit à ses clients des fiches d'informations pour chaque outil d'IA proposé. Ils bénéficient ainsi d'une transparence totale sur la façon dont nos solutions d'IA sont développées, testées et entraînées, les limites connues de leur utilisation et les mesures d'atténuation des risques mises en place pour chaque fonctionnalité. Nous expliquons également comment nous guidons et formons nos collaborateurs sur l'importance du développement responsable de l'IA.

Meilleures pratiques pour déployer l'IA de manière responsable

Les bonnes pratiques suivantes sont essentielles au déploiement responsable des technologies d'IA.

Comprendre les rôles et les responsabilités de chacun dans la chaîne de valeur de l'IA. Les réglementations et les cadres de bonnes pratiques aident à identifier les responsabilités de gestion des risques liés à l'IA non seulement pour les développeurs comme Workday, mais aussi pour les déployeurs. Par exemple, l'article 26 de la loi sur l'IA de l'UE définit les obligations des déployeurs de systèmes d'IA à haut risque. Le guide Best Practices for AI and Workplace Assessment Technologies du Future of Privacy Forum est une autre ressource intéressante à consulter.

Aux États-Unis, une loi récemment adoptée par le Colorado impose des obligations tant aux développeurs qu'aux déployeurs de systèmes d'IA, une législation qui reflète le cadre émergent que Workday préconise au niveau des États. Les déployeurs ont un rôle important à jouer, et des ressources sont disponibles pour les aider à clarifier leurs responsabilités en matière de gestion des risques liés à l'IA.

Collaborer avec des développeurs de systèmes d'IA en qui vous pouvez avoir confiance. Les développeurs de systèmes d'IA de confiance connaissent les réglementations existantes et émergentes ainsi que les bonnes pratiques dans ce domaine qui évolue rapidement. Ils auront élaboré de manière proactive des cadres d'IA responsable native et des cadres d'atténuation des risques alignés sur un environnement réglementaire changeant.

Lors du choix d'un développeur de systèmes d'IA, assurez-vous qu'il comprenne et respecte la loi sur l'IA de l'Union européenne, le Cadre de gestion des risques liés à l'IA (AI RMF) du National Institute of Standards and Technology et les autres directives réglementaires et bonnes pratiques pertinentes. Le développeur doit être prêt à partager avec vous une description de ses pratiques d'identification et d'atténuation des risques. Les développeurs avancés auront mis en place les programmes nécessaires, notamment des équipes dédiées à l'IA responsable. Ils se concentreront sur une approche de l'IA responsable native, intégrant directement la confiance dans leurs produits et technologies d'IA.

Les développeurs de systèmes d'IA de confiance connaissent les réglementations existantes et émergentes ainsi que les bonnes pratiques dans ce domaine qui évolue rapidement.

Garantir l'utilisation responsable et la supervision efficace des systèmes d'IA. Les déployeurs de systèmes d'IA sont essentiels à la chaîne de valeur de l'IA, car ils se situent directement entre le système et l'utilisateur final. Ils doivent d'abord identifier le défi que l'entreprise souhaite relever et déterminer si la technologie d'IA d'un fournisseur donné offre une solution efficace. Ils doivent ensuite se demander à quoi devraient ressembler les directives en matière d'IA responsable pour leur utilisation de l'IA. Par exemple, alors que les développeurs doivent s'engager dans des tests d'équité sur des échantillons de données agrégées, les déployeurs doivent effectuer ce type de test sur leurs propres données locales.

Alors que les développeurs doivent concevoir des systèmes permettant une supervision humaine efficace, les déployeurs doivent fournir cette supervision tout en réfléchissant à la manière dont le système s'intègre le plus efficacement possible dans le processus qu'ils souhaitent optimiser. Les déployeurs doivent également configurer le système pour optimiser ce processus, tout en supervisant et en surveillant son fonctionnement au sein du processus.

Préparer l'avenir ensemble

Chez Workday, en tant que fournisseurs de systèmes d'IA responsable, nous comprenons et respectons notre responsabilité en ce qui concerne le développement de systèmes d'IA dignes de confiance. Nous sommes également conscients qu'en tant que développeurs, notre rôle occupe une place spécifique dans la chaîne de valeur plus large de l'IA. Ce n'est qu'en nous engageant à travailler ensemble dans cette chaîne de valeur que nous pouvons garantir l'utilisation de ces technologies pour amplifier le potentiel humain et avoir un impact positif sur la société.

Découvrez plus de détails sur notre programme de gouvernance de l'IA responsable dans le livre blanc « IA responsable : encourager une innovation éthique et transparente », où nous décrivons les principes, pratiques, personnes et positions de politique publique qui guident notre approche.

Découvrez comment nous donnons aux entreprises les moyens de transformer leur gestion RH et Finance, et comment nous guidons en toute confiance les grandes marques mondiales vers un avenir basé sur l'IA.

En lire plus