L'AI responsabile si fa in due: sviluppatori e deployer devono collaborare

Gli sviluppatori AI e le aziende che ne implementano e utilizzano le tecnologie devono collaborare per assicurarsi che l'AI sia impiegata in modo assennato. Tutti gli elementi della catena del valore dell'AI hanno un ruolo nello sviluppo e nell'uso responsabile dell'AI.

Gruppo di impiegati in un open space.

Se vogliamo assicurarci che l'AI abbia un impatto positivo sulla società, coloro che costruiscono l'AI e coloro che la utilizzano per lavorare devono condividerne la responsabilità. L'AI responsabile è un'attività di squadra in cui ogni attore della catena del valore svolge un ruolo importante nella creazione di quel futuro che tutti auspichiamo.

Ecco alcune best practice per gli sviluppatori di tecnologie di AI, come Workday, e per chi le implementa, come i nostri clienti.

Le best practice per lo sviluppo di un'AI responsabile

I seguenti principi sono i fondamenti di un'AI responsabile oltre che le best practice che seguiamo e incoraggiamo anche gli altri sviluppatori ad adottare. Richiedono il coinvolgimento e il sostegno di tutti i livelli dell'impresa. L'AI responsabile non è un compito affidato a una sola persona, team o comitato direttivo: è un imperativo globale che la leadership deve riconoscere e diffondere in tutta l'azienda.

Eseguire una valutazione sistematica dei rischi legati all'AI. Ogni nuovo prodotto AI che realizziamo passa attraverso la nostra valutazione scalabile del rischio, uno strumento concepito per allinearci alle categorie di rischio definite dall'AI Act dell'UE. Questa analisi ci permette di determinare in modo efficiente il livello di rischio legato al contesto e alle caratteristiche del nuovo use case, del design tecnico e del modello, l'impatto potenziale sulle opportunità economiche e i problemi di sorveglianza.

Gli use case ad "alto rischio" differiscono da quelli "non consentiti". "Alto rischio" significa che lo use case richiede più linee guida e salvaguardie, maggiore prudenza e attenzione. Gli use case "non consentiti", come il monitoraggio invasivo della produttività e la sorveglianza biometrica, sono contrari ai nostri valori e pertanto scegliamo di non costruire soluzioni che rientrano in questa categoria.

Gli sviluppatori più avanzati avranno predisposto dei programmi e dei team dedicati alla governance responsabile dell'AI.

Aderire alle linee guida specifiche dell'AI responsabile. Per gli use case consentiti, il risultato della valutazione del rischio determina le mitigazioni del rischio richieste sotto forma di linee guida. Il team di sviluppo si attiene a queste linee guida e ne documenta l'adesione durante la realizzazione della soluzione. Per le tecnologie a più alto rischio, come quelle che i nostri clienti utilizzano a supporto di importanti processi decisionali che possono avere un impatto sulle opportunità economiche dei collaboratori, richiediamo un numero maggiore di linee guida di AI responsabile rispetto alle tecnologie a più basso rischio, come quelle destinate all'identificazione di anomalie nella pianificazione del budget. Le linee guida dell'AI responsabile riguardano aspetti quali la trasparenza, l'equità, la spiegabilità, l'intervento umano, la qualità dei dati e la solidità. L'obiettivo è duplice: per fornire tecnologie AI affidabili e di qualità ai nostri clienti dobbiamo evitare conseguenze indesiderate, come i pregiudizi inconsapevoli, e aderire a framework di best practice in rapida evoluzione.

Garantire trasparenza ai clienti. Workday ha predisposto schede informative sull'AI per ogni strumento di AI che offriamo. I clienti hanno così la possibilità di sapere come vengono realizzate, testate e addestrate le nostre offerte di AI, le limitazioni note per il loro utilizzo e una sintesi delle mitigazioni dei rischi per ogni funzione. Condividiamo anche il modo in cui formiamo e sensibilizziamo il nostro personale sull'importanza di uno sviluppo responsabile dell'AI.

Le best practice per l'implementazione responsabile dell'AI

Le seguenti best practice sono fondamentali per implementare in modo responsabile le tecnologie di AI.

Comprendere ruoli e responsabilità distinti nella catena del valore dell'AI. Le normative e le best practice sono utili per identificare le responsabilità di gestione del rischio legati all'AI non solo per gli sviluppatori come Workday, ma anche per chi implementa le tecnologie. Ad esempio, l'articolo 26 dell'AI Act dell'UE precisa gli obblighi per chi implementa sistemi AI ad alto rischio. Un'altra risorsa che vale la pena di consultare è "Best practice per l'AI e le tecnologie di valutazione dell'ambiente di lavoro" del Future of Privacy Forum.

Si noti che la normativa recentemente adottata in Colorado, e che prevede obblighi sia per gli sviluppatori che per i deployer, rispecchia la posizione sostenuta da Workday riguardo all'impegno a livello statale. I deployer hanno un ruolo importante e per loro sono disponibili risorse che aiutano a chiarire le loro responsabilità nella gestione del rischio legato all'AI.

Collabora con sviluppatori AI di cui puoi fidarti. Gli sviluppatori AI affidabili conosceranno le normative e le best practice esistenti ma anche quelle emergenti, aspetto decisamente importante in un settore in rapida evoluzione. In più, avranno elaborato framework di mitigazione dei rischi e di integrazione dell'AI responsabile direttamente nella fase di sviluppo dei prodotti in linea con un ambiente normativo in evoluzione.

Quando si sceglie uno sviluppatore AI, è bene informarsi sulla sua adesione alle disposizioni dell'AI Act dell'UE, del NIST AI Risk Management Framework e di altri regolamenti normativi e best practice. Lo sviluppatore deve essere disposto a condividere una descrizione delle sue pratiche di identificazione e mitigazione dei rischi. Gli sviluppatori più avanzati avranno predisposto dei programmi, dei team dedicati all'AI responsabile e lavoreranno all'integrazione di un'AI responsabile direttamente nella fase di sviluppo dei loro prodotti e tecnologie di AI.

Gli sviluppatori AI affidabili conosceranno le normative e le best practice esistenti ma anche quelle emergenti, aspetto decisamente importante in un settore in rapida evoluzione.

Garantire un uso responsabile e una supervisione efficace dei sistemi di AI. I deployer di sistemi di AI sono fondamentali per la catena del valore dell'AI perché si inseriscono nello spazio tra il sistema e l'utente finale. Devono innanzitutto determinare il problema aziendale che desiderano risolvere e valutare se una determinata tecnologia di AI offerta dal fornitore rappresenta una soluzione efficace. In seguito, devono considerare le possibili linee guida per l'utilizzo responsabile dell'AI. Ad esempio, mentre gli sviluppatori dovrebbero effettuare test di equità su campioni di dati aggregati, i deployer dovrebbero completare questo tipo di test sui propri dati locali.

Se da un lato gli sviluppatori devono progettare i sistemi in modo da consentire un'efficace supervisione umana, dall'altro i deployer devono provvedere a tale supervisione, valutando il modo più efficace di inserire il sistema all'interno del processo che desiderano ottimizzare. I deployer devono inoltre configurare il sistema per ottimizzare questo processo, nonché supervisionarlo e monitorarne il funzionamento.

Andare avanti, insieme

In qualità di fornitori di sistemi di AI responsabile, noi di Workday viviamo con consapevolezza la nostra responsabilità di sviluppare sistemi di AI affidabili e, in quanto sviluppatori, sappiamo anche di rivestire un ruolo specifico nella catena del valore dell'AI. Solo se tutti i soggetti coinvolti nella catena del valore si impegnano a collaborare, riusciremo ad assicurarci che l'intelligenza artificiale venga utilizzata per amplificare il potenziale umano e avere un impatto positivo sulla società.

Per maggiori dettagli sul nostro programma di governance dell'AI responsabile, consulta il white paper "AI responsabile per un'innovazione etica", in cui descriviamo i principi, le pratiche, le persone e le posizioni di politica pubblica che guidano il nostro approccio.

Scopri come stiamo aiutando le aziende a trasformare il modo in cui gestiscono personale e capitali e come accompagniamo con audacia marchi globali verso un futuro basato sull'AI mettendo la fiducia al centro di tutto ciò che facciamo.

Leggi di più