Comment les entreprises peuvent prospérer grâce à une IA de confiance

Les applications exactes de l'IA ne sont pas connues, mais les entreprises devraient prendre en compte la protection de la vie privée, le jugement humain et la simplification des systèmes pour guider son utilisation avec succès.

Comment les entreprises peuvent prospérer grâce à une IA de confiance | smartCIO Workday

De la rédaction de contenu marketing à l'élaboration de prévisions financières plus rapides et plus précises, en passant par la rationalisation des chaînes d'approvisionnement, les dirigeants sont conscients des opportunités incroyables qu'offre la mise en œuvre de l'IA dans l'entreprise. 

Et aucun ne veut rater le train en marche : près des trois quarts d'entre eux se sentent contraints de renforcer l'adoption de l'IA, selon le rapport Workday de 2023 sur le QI de l'IA. Ce que l'on ne sait pas encore, c'est où et comment l'IA apportera les gains les plus importants.

« Ce que nous aurions fait il y a six mois n'est pas ce que nous faisons aujourd'hui. Et nous ne savons pas aujourd'hui ce que nous ferons dans six mois. »

Shane Luke Vice President, AI and Machine Learning (ML) chez Workday

Pour atteindre le potentiel incroyable annoncé, les DSI doivent aider leur entreprise à traverser un champ miné de problèmes encore méconnus liés à la vie privée, à la sécurité, aux biais et à l'éthique. Or, les politiques, les règles et les meilleures pratiques qui devraient normalement les guider sont encore en cours d'élaboration. Face à autant d'incertitudes, il n'est pas surprenant que près de la moitié (49 %) des PDG estiment que leur entreprise n'est pas prête à adopter l'IA et le ML, selon le rapport C-Suite Global AI Indicator de Workday.

« Si les utilisateurs ne font pas confiance à la technologie, ils ne l'utiliseront pas, avertit Tom Girdler, Principal, Product Marketing chez Workday. En revanche, si nous nous appuyons sur un cadre solide pour mettre au point cette technologie, cela créera une dynamique très intéressante où la confiance et l'IA pourront vraiment se développer en synergie. » 

En renforçant la confiance dans l'IA, les DSI peuvent en accélérer l'adoption et commencer à fournir la valeur exponentielle attendue par les dirigeants d'entreprise. Comment y parvenir ? Il faut d'abord adhérer aux trois principes d'une IA digne de confiance et permettre aux équipes d'expérimenter de manière responsable cette technologie transformatrice.

 

1. Évaluer les risques en matière de protection de la vie privée et planifier la mise en conformité

Toutes les applications de l'IA ne présentent pas le même niveau de risque. Pour faire face à l'évolution des questions de confidentialité et de conformité, les équipes IT doivent comprendre les problèmes particuliers que pose chaque cas d'usage et aider l'entreprise à hiérarchiser les projets en conséquence. 

Certains risques doivent être jugés inacceptables dès le départ, comme la présence de biais ou de discriminations dans les modèles d'IA qui pourraient conduire à des résultats injustes ou discriminatoires concernant l'origine ethnique, le sexe ou d'autres caractéristiques protégées. Les failles de sécurité, la collecte non autorisée de données et les prédictions peu fiables sont d'autres exemples de risques inacceptables qui devraient stopper net un projet d'IA.

« Il est question de transparence, de documentation technique, de tenue de registres, de surveillance humaine, d'exactitude, de robustesse et de cybersécurité. »

Jens-Henrik Jeppesen Senior Director, Public Policy, Workday

D'autres risques peuvent être gérés, mais nécessitent une surveillance étroite. Par exemple, de nombreux modèles d'IA apprennent au fur et à mesure qu'ils sont utilisés, ce qui signifie que de nouvelles interactions peuvent introduire de nouveaux types de biais. Les équipes IT doivent définir des lignes directrices à l'intention des utilisateurs qui fournissent de nouvelles données d'entrée, et surveiller les données de sortie en évolution pour s'assurer qu'elles restent justes et exactes.

Les DSI doivent également garder un œil sur la conformité. Alors que la plupart des lois sur la protection de la vie privée ne sont pas encore à jour des dernières avancées en matière d'IA, les leaders IT doivent se préparer à ce qui est à venir. Les réglementations varieront certainement d'un pays à l'autre, mais il existe un large consensus sur le fait que quelques facteurs clés sont essentiels au développement et au déploiement d'une IA digne de confiance. 

 « Il est question de transparence, de documentation technique, de tenue de registres, de surveillance humaine, d'exactitude, de robustesse et de cybersécurité, explique Jens-Henrik Jeppesen, Senior Director, Public Policy chez Workday. L'idée est que des normes techniques seront élaborées pour répondre à chacune de ces exigences réglementaires et que les entreprises se certifieront selon ces normes. »

 

2. Maintenir les humains à la barre

Les auteurs de science-fiction adorent imaginer des futurs dystopiques régis par des IA sensibles. Bien sûr, les technologues savent que l'IA ne peut pas penser et qu'elle ne peut que tirer des conclusions sur la base de ses données d'entraînement. Mais cela aussi peut s'avérer dangereux. 

Lorsque des machines dénuées de toute réflexion prennent des décisions purement basées sur des données, elles ignorent souvent des facteurs contextuels cruciaux. Par exemple, un modèle financier piloté par l'IA qui s'appuie sur des données historiques pour faire des projections peut ne pas tenir compte des conditions géopolitiques actuelles ou des changements récents dans le sentiment du marché, qui pourraient influencer de manière significative les résultats de l'entreprise.

Pour que l'IA puisse éclairer efficacement les décisions, les humains doivent rester impliqués à chaque étape du processus. De l'entraînement à l'adoption, en passant par les tests et la mise en œuvre, les entreprises doivent utiliser l'IA pour amplifier le potentiel humain, et non l'inverse.

« La vraie question est de savoir comment mettre cela en pratique », s'interroge Kelly Trindel, Chief Responsible AI Officer chez Workday.

« Cela nécessite une collaboration interdisciplinaire et une ouverture d'esprit », explique-t-elle. Dans les premiers temps, les DSI doivent mettre en place les équipes et les structures organisationnelles nécessaires pour élaborer les lignes directrices qui favoriseront l'équité, l'exactitude, la fiabilité et la robustesse au fur et à mesure que l'entreprise mettra en œuvre de nouvelles applications.

77 % des dirigeants craignent qu'au moins une partie de leurs données ne soient ni suffisamment à jour ni suffisamment fiables pour être utilisées avec l'IA et le ML.

« Ceux qui savent réellement comment ces choses fonctionnent doivent être impliqués dans la mise en place de la gouvernance de l'IA, souligne Kelly Trindel. Selon nous, le fait d'avoir des lignes hiérarchiques distinctes pour ceux qui développent la gouvernance des systèmes d'IA et ceux qui sont les développeurs de première ligne des systèmes d'IA est une bonne pratique à développer. » 

 

3. Concevoir des systèmes plus simples pour atténuer les biais

Il est impossible d'éviter complètement les biais dans l'IA. Les êtres humains ont chacun leurs opinions et entraînent l'IA sur la base de ce qu'ils croient être vrai. Cependant, le fait de travailler de manière proactive à l'atténuation de ces préjugés dès le départ peut contribuer grandement à la mise en place de systèmes d'IA plus éthiques et plus équitables.

« La conception du système est de loin la partie la plus importante, estime Shane Luke. Il est possible de concevoir le système de manière à ce qu'il soit très peu probable qu'il produise quelque chose que l'on ne souhaite pas. Il s'agit là du véritable point de départ. »

Les données d'entraînement déterminant ce que produit l'IA, les DSI doivent s'assurer que toutes les applications sont construites à partir de données fiables qui ont été examinées et validées par diverses équipes humaines. Bien qu'il soit important de tester les données de sortie pour atténuer les biais qui se glissent dans le modèle, cela doit être le filet de sécurité de l'entreprise et non sa première ligne de défense, souligne Shane Luke : « Il ne s'agit pas d'essayer de vérifier ou de contrôler les données de sortie. C'est beaucoup plus difficile à faire et ce n'est jamais un processus définitif. » 

Par exemple, les grands modèles de langage (LLM) tels que ChatGPT sont entraînés sur de vastes jeux de données généraux qui leur permettent de fournir des réponses longues dans un langage naturel convaincant. Mais ces jeux de données comprennent souvent un contenu de mauvaise qualité, comme des informations erronées trouvées en ligne. Un pourcentage important des dirigeants (77 %) s'inquiètent du fait qu'au moins une partie de leurs données ne soient ni suffisamment à jour ni suffisamment fiables pour être utilisées avec l'IA et le ML. Comme alternative, les DSI et ceux qui conçoivent les systèmes doivent envisager de créer des applications de portée plus réduite, entraînées pour accomplir des tâches très spécifiques. 

« Comme ces applications sont plus limitées, elles fascinent moins, indique Shane Luke. Mais elles sont très efficaces pour les tâches qu'elles sont censées accomplir, tout en étant moins susceptibles de faire quelque chose que vous ne souhaitez pas. »

En lire plus