Se vogliamo assicurarci che l'AI abbia un impatto positivo sulla società, coloro che costruiscono l'AI e coloro che la utilizzano per lavorare devono condividerne la responsabilità. L'AI responsabile è un'attività di squadra in cui ogni attore della catena del valore svolge un ruolo importante nella creazione di quel futuro che tutti auspichiamo.
Ecco alcune best practice per gli sviluppatori di tecnologie di AI, come Workday, e per chi le implementa, come i nostri clienti.
Le best practice per lo sviluppo di un'AI responsabile
I seguenti principi sono i fondamenti di un'AI responsabile oltre che le best practice che seguiamo e incoraggiamo anche gli altri sviluppatori ad adottare. Richiedono il coinvolgimento e il sostegno di tutti i livelli dell'impresa. L'AI responsabile non è un compito affidato a una sola persona, team o comitato direttivo: è un imperativo globale che la leadership deve riconoscere e diffondere in tutta l'azienda.
Eseguire una valutazione sistematica dei rischi legati all'AI. Ogni nuovo prodotto AI che realizziamo passa attraverso la nostra valutazione scalabile del rischio, uno strumento concepito per allinearci alle categorie di rischio definite dall'AI Act dell'UE. Questa analisi ci permette di determinare in modo efficiente il livello di rischio legato al contesto e alle caratteristiche del nuovo use case, del design tecnico e del modello, l'impatto potenziale sulle opportunità economiche e i problemi di sorveglianza.
Gli use case ad "alto rischio" differiscono da quelli "non consentiti". "Alto rischio" significa che lo use case richiede più linee guida e salvaguardie, maggiore prudenza e attenzione. Gli use case "non consentiti", come il monitoraggio invasivo della produttività e la sorveglianza biometrica, sono contrari ai nostri valori e pertanto scegliamo di non costruire soluzioni che rientrano in questa categoria.