Nous nous retrouvons presque face au même scénario qu'il y a vingt ans. Si vous prévoyez d'adopter l'IA d'une entreprise et ses agents, il est vraiment important de pouvoir faire confiance à ce fournisseur et de le respecter, mais aussi de savoir qu'il fait preuve d'une grande intégrité et qu'il opère selon un ensemble de principes. Forts de nos 20 années d'expérience en tant que partenaire fiable et de confiance pour nos clients exceptionnels, nous avons une véritable longueur d'avance dans cette course.
Q : Plus tôt cette année, Workday a annoncé avoir obtenu deux certifications majeures en matière d'IA pour son engagement envers une IA responsable. Pouvez-vous partager des exemples pratiques de la manière dont Workday applique ses principes éthiques à l'IA responsable et aux agents IA ?
Rich Sauer : Le développement et le déploiement de notre IA sont guidés par un formidable ensemble de principes, mais ces derniers représentent la partie la plus facile. Tout le monde en a et ils se ressemblent tous plus ou moins. La difficulté réside dans la manière dont vous mettez en œuvre et appliquez ces principes dans la pratique.
Quand je suis arrivé il y a plus de 6 ans, nous avons créé une équipe dédiée à l'IA responsable. Cette équipe est aujourd'hui composée de data scientists et de spécialistes en sciences sociales, absolument indispensables. Nous avons mis en place un processus d'évaluation par lequel nous mesurons les risques liés aux fonctionnalités développées par Workday. Nous nous assurons de bien les comprendre, et tout ce qui implique des décisions importantes ayant un impact sur des vies humaines fait l'objet d'une vigilance particulière de notre part. Nous encadrons le processus de développement, nous testons et nous faisons tout ce qui est en notre pouvoir pour nous assurer des résultats avec une grande intégrité et adaptés à leur finalité.
Q : Certains considèrent l'intégrité et l'éthique comme des « freins » à l'innovation. Comment une solide fondation éthique peut-elle réellement aider les entreprises à avancer plus vite, notamment avec l'IA ?
Rich Sauer : Il est vrai que les groupes d'innovation et d'ingénierie considèrent souvent le département juridique comme un obstacle. Ce n'est pas le cas de nos ingénieurs. Nos équipes comprennent l'importance de ce que nous faisons, et elles veulent elles-mêmes s'assurer que ce qu'elles développent est éthique et répond à des normes élevées.
Nos clients s'attendent à des normes élevées dans nos innovations, donc d'une certaine façon, cela nous oblige à une autodiscipline. Nous y parvenons, car nous l'exigeons de nous-mêmes, et nous le devons, car c'est aussi ce que le marché exige.
Q : Comment concevez-vous le jugement humain à mesure que vous automatisez davantage de processus avec l'IA ?
Rich Sauer : Nous évaluons le risque comme étant faible, moyen, moyen-élevé ou élevé. Lorsqu'un élément présente un risque moyen à élevé et que nous devons prendre une décision considérée comme importante, nous avons un principe qui stipule que l'humain doit rester impliqué.