Orientarsi nell'AI Act dell'UE: tutto quello che i business leader devono sapere

L'AI Act dell'Unione Europea ha definito un nuovo standard in materia di AI responsabile e Workday si impegna a fare da apripista. Scopri come il nostro approccio innovativo allo sviluppo e all'implementazione dell'AI si allinea a quanto sancito dalla normativa e perché aiuta i clienti a promuovere la fiducia in questa tecnologia e a favorirne un'adozione etica.

Uomo che lavora al computer accanto a una finestra

La legge sull'intelligenza artificiale dell'Unione europea (EU AI Act) è destinata a diventare lo standard globale per la regolamentazione dell'intelligenza artificiale (AI). Lo scopo di questa innovativa legge è promuovere l'innovazione mitigando contemporaneamente i potenziali rischi associati ai sistemi di AI. Adottando un approccio basato sul rischio e insistendo sulle considerazioni etiche, l'AI Act dell'UE crea un precedente per lo sviluppo e l'implementazione responsabile dell'AI in tutto il mondo. 

Viste le significative implicazioni di questa legge, molti dei nostri clienti ci chiedono come Workday stia reagendo all'AI Act dell'UE e come ci stiamo preparando a soddisfarne i requisiti. Siamo consapevoli che orientarsi in questo nuovo contesto normativo può essere complesso, quindi vogliamo condividere il nostro approccio in nome della trasparenza e della collaborazione. Illustrando il nostro framework e i passi che stiamo compiendo, speriamo di offrire spunti e best practice che altri potranno adattare alla loro situazione.

Workday considera cruciale adottare un approccio responsabile allo sviluppo dell'AI e questo principio guida tutto ciò che facciamo. Da tempo ci impegniamo a integrare l'AI responsabile direttamente nella fase di sviluppo dei nostri prodotti e l'AI Act dell'UE rappresenta un quadro prezioso per consolidare e formalizzare questi sforzi.

Che cos'è l'AI Act dell'UE

L'AI Act dell'UE è una pietra miliare della legislazione sull'intelligenza artificiale con implicazioni di vasta portata per chiunque sviluppi o implementi tecnologie di AI nell'Unione europea. La legge classifica l'AI in base a categorie di rischio e definisce i ruoli e le responsabilità per il suo sviluppo e la sua implementazione in base a esse.

L'AI Act definisce quattro categorie di rischio i cui requisiti variano in base alla complessità e alla portata dell'impatto:

  • Rischio inaccettabile: categoria che comprende i sistemi di AI vietati dalla legge, come quelli che, ad esempio, manipolano le decisioni o prevedono la probabilità di commettere reati.
  • Rischio elevato: categoria che comprende i sistemi sottoposti a controllo rigoroso a causa del loro potenziale impatto sulle persone. Rientrano in questa categoria gli strumenti utilizzati per le pratiche di assunzione o il settore sanitario.
  • Rischio limitato (obblighi di trasparenza): categoria che comprende le tecnologie che interagiscono direttamente con le persone, comprese quelle che generano testo, audio o video, e che devono essere segnalate. Rientrano in questa categoria chatbot alimentati dall'AI e contenuti generati dall'AI. 
  • Rischio minimo o nullo (AI per finalità generali): questa categoria comprende i sistemi di AI utilizzati per svolgere attività non sensibili, come gli strumenti che usano i modelli GPT.

L'AI Act dell'UE è una pietra miliare della legislazione sull'AI con implicazioni di vasta portata per chiunque sviluppi o implementi tecnologie di AI nell'Unione europea.

L'approccio di Workday ai ruoli e alle responsabilità dell'AI

L'AI Act dell'UE introduce una serie di obblighi definendo ruoli distinti nel ciclo di vita dell'AI per fornitori, distributori e distributori intermediari. Per orientarsi in questo quadro normativo, le aziende devono innanzitutto definire chiaramente i propri ruoli nell'ambito della catena del valore dell'AI. Se ricoprono più ruoli, le aziende dovranno dotarsi di strategie di compliance e pratiche di governance adattabili. 

In Workday riconosciamo l'importanza di adempiere alle nostre responsabilità nei tre ruoli seguenti: 

  • Fornitore: sviluppiamo tecnologie di AI per il mercato (in cui rientrano anche i nostri modelli di machine learning) e le funzionalità basate sull'AI che integriamo nei nostri prodotti.
  • Distributore: implementiamo e utilizziamo sistemi di AI nel nostro flusso operativo e usiamo l'AI per migliorare i nostri processi e servizi interni.
  • Fornitore intermediario: integriamo nelle nostre offerte modelli di AI di terze parti, come quelli per finalità generali, per migliorare le funzionalità e fornire più valore ai nostri clienti.

Per garantire il rispetto dei più alti standard di AI responsabile, abbiamo adottato un approccio globale alla compliance. Per adempiere ai requisiti di compliance dell'AI Act dell'UE per il suo ruolo di fornitore di AI, Workday fa riferimento al suo consolidato framework di governance dell'AI responsabile. Abbiamo adottato un approccio lungimirante, tanto che ci lavoriamo dal 2019

Workday offre ai clienti un programma di AI responsabile che supera gli standard del settore. Ci siamo allineati al framework NIST per l'AI e in termini di test e documentazione superiamo gli obblighi legali per le applicazioni AI a basso rischio. Ora stiamo adottando lo stesso approccio lungimirante per garantire l'allineamento con l'AI Act dell'UE.

Nell'ottica di allinearci al nuovo regolamento dell'Unione europea, abbiamo avviato anche diversi programmi interni volti a rafforzare le nostre già consolidate pratiche. I loro scopo è di migliorare la trasparenza, promuovere l'alfabetizzazione in materia di AI in base al ruolo, aggiornare le politiche di sviluppo e implementazione dell'AI e migliorare la spiegabilità dei nostri sistemi di AI. 

Il nostro approccio allo sviluppo dell'AI

Oltre ai principi relativi all'AI responsabile già enunciati, in questo articolo vorrei concentrarmi sul nostro approccio allo sviluppo dell'AI, che prevede una nostra significativa assunzione di responsabilità per la progettazione della tecnologia e la mitigazione dei potenziali rischi.

Sviluppare e implementare l'AI in modo responsabile richiede un approccio strutturato e proattivo. Incorporando considerazioni sull'AI responsabile in ogni fase del nostro ciclo di sviluppo, garantiamo che i nostri sistemi di AI non solo siano conformi a normative come l'AI Act dell'UE, ma anche allineati ai nostri valori fondamentali.

Per garantire il rispetto dei più alti standard di AI responsabile, abbiamo adottato un approccio globale alla compliance.

Il nostro approccio si basa su una metodologia formalizzata basata sul rischio. Per adeguarci alle disposizioni dell'AI Act dell'UE abbiamo aggiornato il nostro processo di valutazione del rischio dell'AI allineando le procedure di valutazione alle categorie di rischio e ai principi della normativa.

Ecco in sintesi come integriamo l'AI responsabile nel nostro processo di sviluppo:

Ogni nuovo use case dell'AI viene sottoposto a una valutazione dei rischi durante la fase di ideazione. La valutazione assegna le categorie di rischio in base alle caratteristiche dello use case e all'uso previsto. In seguito vengono assegnati protocolli, o pratiche, per affrontare i rischi associati.

Le nostre pratiche di AI responsabile elencate di seguito hanno lo scopo di rendere i nostri prodotti sicuri e adatti a un'ampia gamma di esigenze.

Dare potere ai clienti 

Poiché riteniamo che un'AI responsabile richieda una partnership con i nostri clienti, forniamo loro gli strumenti e le risorse necessari per prendere decisioni informate sull'uso dell'IA e sulla gestione dei loro dati.

Le funzionalità che mettiamo a disposizione assicurano controllo e trasparenza:

  • Attivazione delle funzionalità: i nostri clienti decidono quali funzionalità utilizzare (e quali no), comprese quelle che sfruttano l'AI di Workday.
  • Controllo sull'uso dei dati: i clienti controllano l'uso dei loro dati per migliorare i modelli di ML di Workday.
  • Trasparenza: Workday fornisce risorse, documentazione e strumenti in-tenant che consentono ai clienti di esaminare i dati utilizzati per migliorare i modelli di ML.
  • Controlli di accesso granulari e sicurezza: i clienti hanno a disposizione strumenti per creare gruppi di sicurezza in cui inserire stakeholder rilevanti a loro scelta, tra cui addetti alla governance dell'AI e specialisti di sicurezza, privacy, compliance e legali. Questi gruppi possono prendere decisioni sull'uso dei dati nell'AI di Workday. Gli strumenti che Workday fornisce garantiscono che le decisioni e i dati utilizzati soddisfino le esigenze dei nostri clienti.

Dal momento che per noi la trasparenza è fondamentale, forniamo una serie di risorse che mantengono i clienti informati, come le schede informative sull'AI che descrivono le nostre funzionalità AI disponibili. Ogni scheda descrive brevemente una funzionalità AI, gli input e gli output del modello, il metodo di addestramento del modello e le considerazioni sulla privacy. Queste risorse vengono costantemente migliorate per aiutare i clienti a controllare meglio il loro utilizzo dell'AI di Workday.

Crediamo che un'AI responsabile richieda una partnership con i nostri clienti.

Una collaborazione continua

L'allineamento all'AI Act dell'UE non solo garantisce la compliance, ma favorisce anche la fiducia dei nostri clienti e stakeholder. L'innovazione etica per noi è una priorità, così come lavorare per un futuro in cui l'AI sia usata a fin di bene.

Per Workday l'AI responsabile è un impegno continuo che impone di anticipare continuamente i cambiamenti degli standard dell'AI e di evolvere per soddisfare e superare le esigenze dei clienti. Sebbene l'AI Act dell'UE rappresenti una pietra miliare per l'uso etico dell'AI, non sarà l'ultima normativa emanata nel contesto dell'AI. Ma quando arriveranno i cambiamenti, saremo pronti ad accoglierli.

Scarica il white paper AI responsabile per un'innovazione etica per approfondire i principi chiave, le best practice e alcuni esempi reali di AI responsabile.

Leggi di più