8 conseils pour garantir une Intelligence Artificielle éthique dans votre entreprise

Selon notre expérience, les entreprises qui souhaitent s'engager sur la voie d'une Intelligence Artificielle (IA) éthique devraient s'inspirer des 8 leçons décrites ci-dessous.

Jongler entre Intelligence Artificielle (IA) et confidentialité des données peut être un exercice délicat. Si les opportunités sont potentiellement immenses, il convient de s'interroger sur les possibilités d'utilisation inappropriée des données et sur les risques pour la vie privée. En pleine 4e révolution industrielle, des questions se posent sur les promesses et les dangers de l'IA, ainsi que sur les mesures que les entreprises doivent mettre en place pour en tirer pleinement parti.

Pour un ingénieur ou un développeur, le concept même d'« éthique » appliqué aux produits technologiques est quelque peu abstrait. Si bon nombre d'entreprises de technologie ont lancé des initiatives isolées visant justement à atteindre cet objectif de manière concrète et tangible, il est impératif d'éliminer les silos et de partager les bonnes pratiques. Unir nos efforts nous permettra d'apprendre les uns des autres et de définir des standards plus élevés pour l'ensemble du secteur. Par où commencer ? Concentrons-nous d'abord sur ce qui permet d'installer la confiance.

Chez Workday, la confiance fait partie intégrante de notre ADN. Nos clients savent que la confidentialité et la sécurité de leurs données sont au cœur de nos préoccupations, et ce depuis des années. C'est parce que la protection des données est intrinsèquement liée aux services Workday via nos principes de confidentialité, notre approche du RGPD et notre solide programme de confidentialité. Dans la mesure où nous avançons vers un futur centré sur l'humain et alimenté par le Machine Learning, nous mettons un point d'honneur à intégrer la confidentialité et la sécurité dans notre approche éthique de la conception et de l'utilisation du Machine Learning.

Si de nombreuses entreprises se prévalent de principes élevés en ce qui concerne leur approche de la conception et du déploiement de produits IA, ceux-ci n'ont de valeur que s'ils sont mis en pratique. Workday a récemment publié ses engagements pour une IA éthique afin d'illustrer la manière dont nous mettons en pratique des principes qui s'appuient directement sur nos valeurs fondamentales concernant le service client, l'intégrité et l'innovation. Selon notre expérience, les entreprises qui souhaitent suivre ces principes devraient s'inspirer des 8 leçons suivantes :

1. Définir d'un commun accord le sens de l'expression « IA éthique ». Cette définition doit être spécifique et prendre en compte tous les acteurs impliqués dans l'entreprise. Pour Workday, cela signifie que nos systèmes de Machine Learning reflètent les engagements que nous avons pris en matière d'Intelligence Artificielle éthique, à savoir : l'humain passe avant tout, la société compte pour nous, nous agissons avec équité dans le respect des lois, nos actions sont transparentes et responsables, nous protégeons les données et nous proposons des systèmes de Machine Learning adaptés aux besoins des entreprises.

2. Intégrer une IA éthique dans le cadre du développement et du lancement de produit. Pour ne pas surcharger les équipes de développeurs et de conception de produits, ces processus ne peuvent pas être distincts. Workday applique ces principes au développement de ses produits et les fait respecter à l'aide de processus stricts. De nouvelles procédures de surveillance du Machine Learning ont été incorporées au contrôle de gestion Workday pour encore renforcer l'application de nos principes éthiques au Machine Learning. Nos équipes de développement passent en revue tous nos produits qui intègrent le Machine Learning sous le prisme de l'éthique, en s'interrogeant sur la collecte et la minimisation des données, la transparence et le respect des valeurs. Cet engagement vis-à-vis de la confidentialité n'est pas nouveau : depuis toujours, la protection de la confidentialité fait partie intégrante de nos processus, et nos contrôles et normes sont soumis à des audits tiers. Workday a ainsi mis en place un ensemble de contrôles éthiques applicables au Machine Learning dès la conception. Par ailleurs, nous disposons de mécanismes rigoureux pour la révision et l'approbation de nouvelles technologies et de toute nouvelle utilisation des données. Nous nous engageons à soumettre tous nos processus à une révision continue et à les faire évoluer pour incorporer les nouvelles bonnes pratiques et directives règlementaires du secteur.

3. Créer des groupes d'experts transversaux chargés de guider toutes les décisions concernant la conception, le développement et le déploiement en matière de Machine Learning et d'IA responsables. Très en amont, Workday a créé un groupe de travail sur le Machine Learning composé d'experts provenant de différents services, dont le service Produits et ingénierie, le service juridique, le service Politiques publiques et confidentialité et le service Ethique et conformité. Ces groupes examinent l'utilisation actuelle et les futurs usages possibles du Machine Learning dans nos produits. Réunir ces différents points de vue et compétences pour analyser l'utilisation présente et future du Machine Learning s'est révélé extrêmement efficace et nous a permis d'identifier très tôt les éventuels problèmes dans le cycle de vie des produits.

4. Permettre la collaboration des clients lors des phases de conception, de développement et de déploiement de produits IA responsables. Tout au long du cycle de vie du développement de produits, Workday a recours à des comités consultatifs de clients représentatifs afin d'obtenir leur avis concernant les questions liées à l'IA et au Machine Learning. Notre programme dédié aux premiers utilisateurs nous permet de collaborer étroitement avec certains clients qui deviennent de ce fait nos partenaires de conception pour tester nos derniers modèles et fonctionnalités de Machine Learning via l'Innovation Services. Nous pouvons ainsi comprendre les idées et préoccupations de nos clients en matière d'IA et de Machine Learning, et en tenir compte très tôt dans le développement collaboratif de solutions centrées sur l'humain.

5. Adopter une « approche du cycle de vie » vis-à-vis des biais relatifs au Machine Learning. Les outils de Machine Learning offrent une formidable opportunité d'aider nos clients à exploiter les données pour prendre de meilleures décisions. Cette opportunité s'accompagne de la responsabilité de créer des outils adaptés aux entreprises à la hauteur de la confiance que nos clients ont placée en nous. C'est pourquoi l'un des principaux engagements de Workday vis-à-vis d'une IA éthique est d'atténuer les biais négatifs du Machine Learning. Workday a fait le choix d'une approche du cycle de vie reposant sur différentes étapes de contrôle afin d'évaluer et de corriger tout éventuel biais de la conception du produit jusqu'au suivi après-vente.

6. Opter pour la transparence. Pour être éthique, l'utilisation de données à des fins de Machine Learning doit être transparente. La complexité des algorithmes impliqués oblige les entreprises à expliquer clairement quelles données seront utilisées, à quelles fins et de quelle manière. Pour notre part, nous expliquons le fonctionnement de nos technologies de Machine Learning, leurs avantages et les données nécessaires pour alimenter nos solutions. Nous faisons preuve de responsabilité envers nos clients dans toutes nos solutions de Machine Learning.

7. Encourager les collaborateurs à concevoir des produits responsables. Nos collaborateurs se voient remettre des boîtes à outils et participent à des modules de formation, des séminaires, des sessions d'accueil et d'intégration et des ateliers obligatoires sur nos principes éthiques et leur application dans le domaine de l'IA. Par exemple, lors d'un atelier sur la conception axée sur l'humain, les participants utilisent différents scénarios et personas afin de comprendre notre engagement vis-à-vis de la conception éthique de technologies de Machine Learning.

8. Mettre en commun les connaissances et apprendre des autres acteurs du secteur. Pour collaborer au développement d'un cadre éthique applicable au secteur de la technologie, nous participons à des groupes sectoriels et à des réunions entre homologues, tels que le Comité de direction du Forum économique mondial pour une conception et un déploiement éthiques des technologies. Par ailleurs, Workday accorde une grande importance au suivi et à la création de nouvelles normes et de nouveaux plans. Aux Etats-Unis, Workday plaide avec vigueur la cause d'une IA éthique auprès de nombreux élus et représentants d'organismes publics, et a notamment participé à un briefing du personnel chargé de l'IA du Congrès des Etats-Unis sur le thème « IA éthique : approches sectorielles ». Workday a par ailleurs organisé de nombreuses rencontres entre des représentants du secteur et des élus. Nous avons également apporté notre soutien à la mise à jour du « Plan stratégique national de recherche et développement sur l'Intelligence Artificielle » (National Artificial Intelligence Research and Development Strategic Plan) de la National Science Foundation, ainsi qu'à l'élaboration du rapport « Développement d'outils et de normes applicables à l'intelligence artificielle » (Artificial Intelligence Standards and Tools Development) du National Institute of Standards and Technology (NIST), et continuons de soutenir une participation plus active du NIST au développement d'outils IA éthiques. En Europe, Workday a participé au projet pilote d'évaluation des lignes directrices de la Liste d'évaluation pour une IA digne de confiance (Trustworthy Artificial Intelligence Assessment List) du Groupe d’experts de haut niveau sur l’intelligence artificielle (GEHN IA).

À mesure que le cadre d'une IA éthique se met en place, il devient impératif de partager nos pratiques et d'identifier les leçons que nous en avons tirées. Nous sommes impatients de connaître les approches qui se sont révélées efficaces du point de vue de l'évolutivité et de l'implémentation et restons ouverts à toute opportunité de partage. La collaboration de Workday avec le Forum économique mondial répond en ce sens à un désir d'inciter d'autres parties prenantes à partager leurs bonnes pratiques pour rendre le secteur technologique plus responsable et éthique. La poursuite d'une Intelligence Artificielle et d'une technologie responsables et éthiques est un enjeu vital qui dépasse la sphère de l'entreprise individuelle.

Par nos actions communes, nous devons façonner le bien commun et renforcer la confiance afin d'exploiter au maximum les avantages et la puissance de ces nouvelles technologies.

En lire plus