D'autres risques peuvent être gérés, mais nécessitent une surveillance étroite. Par exemple, de nombreux modèles d'IA apprennent au fur et à mesure qu'ils sont utilisés, ce qui signifie que de nouvelles interactions peuvent introduire de nouveaux types de biais. Les équipes IT doivent définir des lignes directrices à l'intention des utilisateurs qui fournissent de nouvelles données d'entrée, et surveiller les données de sortie en évolution pour s'assurer qu'elles restent justes et exactes.
Les DSI doivent également garder un œil sur la conformité. Alors que la plupart des lois sur la protection de la vie privée ne sont pas encore à jour des dernières avancées en matière d'IA, les leaders IT doivent se préparer à ce qui est à venir. Les réglementations varieront certainement d'un pays à l'autre, mais il existe un large consensus sur le fait que quelques facteurs clés sont essentiels au développement et au déploiement d'une IA digne de confiance.
« Il est question de transparence, de documentation technique, de tenue de registres, de surveillance humaine, d'exactitude, de robustesse et de cybersécurité, explique Jens-Henrik Jeppesen, Senior Director, Public Policy chez Workday. L'idée est que des normes techniques seront élaborées pour répondre à chacune de ces exigences réglementaires et que les entreprises se certifieront selon ces normes. »
2. Maintenir les humains à la barre
Les auteurs de science-fiction adorent imaginer des futurs dystopiques régis par des IA sensibles. Bien sûr, les technologues savent que l'IA ne peut pas penser et qu'elle ne peut que tirer des conclusions sur la base de ses données d'entraînement. Mais cela aussi peut s'avérer dangereux.
Lorsque des machines dénuées de toute réflexion prennent des décisions purement basées sur des données, elles ignorent souvent des facteurs contextuels cruciaux. Par exemple, un modèle financier piloté par l'IA qui s'appuie sur des données historiques pour faire des projections peut ne pas tenir compte des conditions géopolitiques actuelles ou des changements récents dans le sentiment du marché, qui pourraient influencer de manière significative les résultats de l'entreprise.
Pour que l'IA puisse éclairer efficacement les décisions, les humains doivent rester impliqués à chaque étape du processus. De l'entraînement à l'adoption, en passant par les tests et la mise en œuvre, les entreprises doivent utiliser l'IA pour amplifier le potentiel humain, et non l'inverse.
« La vraie question est de savoir comment mettre cela en pratique », s'interroge Kelly Trindel, Chief Responsible AI Officer chez Workday.
« Cela nécessite une collaboration interdisciplinaire et une ouverture d'esprit », explique-t-elle. Dans les premiers temps, les DSI doivent mettre en place les équipes et les structures organisationnelles nécessaires pour élaborer les lignes directrices qui favoriseront l'équité, l'exactitude, la fiabilité et la robustesse au fur et à mesure que l'entreprise mettra en œuvre de nouvelles applications.