Om te zorgen dat AI een positieve impact op onze samenleving heeft, is het belangrijk dat zowel de ontwikkelaars als de zakelijke gebruikers van AI samen de verantwoordelijkheid nemen en elkaar ter verantwoording roepen. Verantwoorde AI is een teamactiviteit waarbij elke speler in de AI-waardeketen een belangrijke rol speelt bij het creëren van de door ons allen gewenste toekomst.
Hier volgen enkele best practices voor ontwikkelaars van AI-technologie, zoals Workday, en voor degenen die deze technologie implementeren, zoals onze klanten.
Best practices bij het ontwikkelen van verantwoorde AI
De volgende uitgangspunten vormen de basis voor verantwoorde AI en dienen als best practices die wij zelf hanteren en andere ontwikkelaars ook aanraden te volgen. Deze gedifferentieerde aanpak vraagt bovendien om buy-in en steun op alle niveaus van de organisatie. Verantwoorde AI is niet de taak van slechts één persoon, team of stuurgroep. Het is een bedrijfsbrede verplichting die door het leadership in het gehele bedrijf moet worden erkend en uitgedragen.
Voer een consistente evaluatie van AI-risico's uit. Elk nieuw AI-product dat we ontwikkelen doorloopt onze schaalbare risico-evaluatie, die is afgestemd op de risicocategorieën uit de AI-verordening van de EU . Deze analyse stelt ons in staat om op efficiënte wijze het risiconiveau van de nieuwe usecase te bepalen. We kijken daarbij naar de context en bijzonderheden van de usecase, het technische en modelontwerp, de mogelijke impact op individuele financiële vooruitzichten en toezichtkwesties.
Usecases met een 'hoog risico' zijn anders dan 'niet toegestane' usecases. Bij een 'hoog risico' is het noodzakelijk om extra richtlijnen en veiligheidsmaatregelen toe te passen en zorgvuldiger en bedachtzamer te werk te gaan. Usecases die 'niet toegestaan' zijn, zoals invasieve productiviteitscontroles en biometrisch toezicht, gaan tegen onze waarden in. Daarom kiezen we ervoor om geen oplossingen te ontwikkelen die in deze categorie vallen.