Pour garantir un impact positif de l'IA sur la société, nous devons mettre en place une responsabilité partagée entre ceux qui développent l'IA et ceux qui l'utilisent dans le cadre de leur travail. L'IA responsable est en effet un travail d'équipe où chaque acteur de la chaîne de valeur joue un rôle crucial pour créer l'avenir que nous voulons tous.
Voici quelques bonnes pratiques pour les développeurs de technologies d'IA, comme Workday, et les utilisateurs de ces technologies, comme nos clients.
Meilleures pratiques pour développer une IA responsable
Les principes suivants sont fondamentaux pour une IA responsable et constituent les meilleures pratiques que nous suivons et encourageons chez les autres développeurs. De plus, cette approche comporte plusieurs volets et exige une adhésion et un soutien à tous les niveaux de l'entreprise. L'IA responsable n'est pas le travail d'une seule personne, d'une seule équipe ou d'un seul comité de pilotage : c'est l'affaire de toute l'entreprise. Elle doit être reconnue et diffusée largement par le leadership.
Effectuer une évaluation cohérente des risques liés à l'IA. Chaque nouveau produit d'IA que nous développons passe par notre processus d'évaluation évolutive des risques, conçu pour nous aider à nous aligner sur les catégories de risques définies par la loi sur l'IA de l'Union européenne. Cette analyse nous aide à déterminer efficacement le niveau de risque du nouveau cas d'usage en fonction de son contexte et de ses caractéristiques, y compris la conception technique et du modèle, l'impact potentiel sur les opportunités économiques des individus et les préoccupations liées à la surveillance.
Les cas d'usage « à haut risque » se distinguent des cas d'usage « refusés ». Un cas « à haut risque » signifie qu'il nécessite davantage de directives et de garde-fous, et doit faire l'objet d'une réflexion plus poussée et d'une plus grande attention. Les cas d'usage « refusés », tels que la surveillance intrusive de la productivité et la surveillance biométrique, sont contraires à nos valeurs. Par conséquent, nous choisissons de ne pas développer de solutions appartenant à cette catégorie.