Legge sull'intelligenza artificiale dell'UE: appello per un'azione congiunta

L'AI Act dell'Unione europea, o legge sull'intelligenza artificiale, pone le basi per l'adozione del primo quadro normativo completo al mondo in materia di AI. Ce ne parla Chandler C. Morse, Vice President of Public Policy di Workday.

14 dicembre

L'8 dicembre 2023 i negoziatori del Parlamento europeo, del Consiglio dei ministri e della Commissione europea hanno annunciato un accordo politico in merito all'Artificial Intelligence Act, legge comunemente nota come AI Act. È un passo in avanti significativo verso la promulgazione della prima legge che regolamenta lo sviluppo e l'utilizzo dell'intelligenza artificiale.

Da ormai un decennio Workday è in prima linea sul fronte dello sviluppo e della fornitura di funzionalità di AI e machine learning (ML) ai propri clienti. Siamo entusiasti dei numerosi vantaggi che l'AI e il ML offrono ai nostri clienti e alla società nel suo complesso, tuttavia sappiamo che, per realizzare il loro pieno potenziale, queste tecnologie devono prima guadagnarsi la fiducia del pubblico.

Consapevole del ruolo cruciale che l'Unione europea (UE) svolge nello stabilire l'orientamento politico in materia di AI, Workday partecipa attivamente alla definizione dell'AI Act dal 2019. Durante questi anni, ci siamo impegnati a promuovere un approccio all'AI diversificato e basato sul rischio che includa severi obblighi normativi e una futura cooperazione internazionale. A questo scopo abbiamo collaborato con gruppi di esperti di alto livello, abbiamo preso parte alle successive consultazioni a livello governativo e abbiamo affiancato i policymaker incaricati di tracciare il percorso per questo processo legislativo. Più di recente, in occasione della nostra partecipazione agli speciali negoziati interistituzionali detti triloghi, abbiamo potuto formulare dei suggerimenti circa la necessità di trasparenza del modello di base.

Adottando una legislazione intelligente, proporzionata e basata sul rischio possiamo aumentare la fiducia nell'AI, mitigare il rischio di potenziali danni e promuovere l'innovazione. L'AI Act è stato concepito proprio per raggiungere questo obiettivo. Esso imporrà ai fornitori di tecnologie AI il rispetto di una serie di requisiti, incoraggerà l'uso responsabile di questi strumenti da parte delle aziende e permetterà alle autorità di regolamentazione di far rispettare le regole. Gli obblighi previsti dall'AI Act delineano obiettivi ragionevoli per gestire i potenziali rischi, molti dei quali sono in linea con quei principi etici in materia di AI a cui Workday si attiene da anni e che sono alla base del nostro impegno per uno sviluppo e una governance dell'AI responsabili.

I negoziatori dell'UE hanno preso una decisione importante: includere requisiti significativi per i modelli di base e l'AI per uso generale imponendo obblighi normativi per gli use case ad alto rischio. Il testo finale non è ancora stato redatto, ma in base all'accordo i fornitori di modelli di base e di AI per uso generale saranno tenuti a garantire trasparenza ai fornitori e agli operatori a valle. La trasparenza è un fattore fondamentale per l'utilizzo dei modelli di base e dell'AI per uso generale in azienda e siamo impazienti di leggere il testo definitivo.

La finalizzazione del testo dell'accordo potrebbe richiedere diverse settimane ma, stando a quanto annunciato, sembra che i negoziatori abbiano trovato soluzioni pratiche a una serie di questioni complesse. Abbiamo fiducia nel fatto che l'AI Act raggiungerà il duplice obiettivo di promuovere innovazioni basate sull'IA e di creare un mercato vivace per una tecnologia affidabile che persone e aziende possono utilizzare in tutta tranquillità. Continueremo a offrire il nostro contributo fino a quando l'AI Act non diventerà legge all'inizio del prossimo anno.

Pur essendo soddisfatti dei progressi significativi compiuti nell'Unione europea, sappiamo che è necessario stabilire regole e standard unificati a livello mondiale per sfruttare il pieno potenziale dell'AI e promuoverne un uso responsabile. Esortiamo i legislatori a emanare normative sull'AI che concilino innovazione continua e affidabilità, che siano armonizzate a livello internazionale e che possano costituire una base solida per la cooperazione internazionale. Ribadiamo il nostro impegno a collaborare con i policy maker a livello mondiale per migliorare la fiducia nell'AI.

20 giugno

Mentre negli Stati Uniti le discussioni circa la necessità di regolamentare l'intelligenza artificiale si sono intensificate, in Europa si è registrata una significativa evoluzione. Il processo legislativo in Europa, avviato nel 2018, ha raggiunto un importante traguardo questa settimana quando il Parlamento europeo ha votato gli emendamenti alla proposta di legge sull'intelligenza artificiale (AI Act). Il voto dà il via ai cosiddetti triloghi, la fase finale del processo legislativo dell'Unione europea, il cui obiettivo è spianare la strada per arrivare all'adozione del primo quadro normativo sull'AI in Europa, e nel mondo, all'inizio del 2024.

Crediamo nella capacità dell'AI di aumentare il potenziale umano. Allo stesso tempo, riteniamo anche che questa tecnologia richieda un approccio politico maturo, ragione per cui sosteniamo da tempo la necessità di introdurre salvaguardie normative che favoriscano una maggiore fiducia nell'AI. Ribadendo il nostro interesse per l'AI Act, ci siamo impegnati a collaborare con i policy maker di Bruxelles per fare in modo che i requisiti della legge sull'intelligenza artificiale siano significativi e praticabili. 

Siamo lieti di vedere che gli emendamenti del Parlamento sono in linea con i nostri suggerimenti: creare una definizione più personalizzata dell'AI, mantenere requisiti ragionevoli per gli use case dell'IA e promuovere un approccio diversificato basato sul rischio. Pur auspicando di vedere ulteriori perfezionamenti man mano che il processo continua, siamo fiduciosi che l'AI Act avrà un ruolo fondamentale per la costruzione di un consenso globale sui principi legati alla regolamentazione dell'AI.

Constatando che l'Europa ha avuto un ruolo di primo piano per la regolamentazione in ambito tecnologico, Washington potrebbe provare una sensazione di déjà vu. Nel 2016, infatti, la UE ha adottato una legislazione sulla privacy che è diventata un riferimento globale per la regolamentazione della riservatezza dei dati. A seguito dell'adozione del GDPR da parte dell'UE, in un momento in cui il dibattito sulle politiche in materia di AI si scalda in tutto il mondo e in cui l'Europa è ancora una volta pronta a compiere un passo significativo e precoce, possiamo fare tre riflessioni.

  1. Il Congresso deve agire. In qualità di leader tecnologico mondiale, gli Stati Uniti devono adempiere all'importante ruolo di orientare la politica tecnologica, anche in materia di intelligenza artificiale. A oggi il Congresso ha fatto molto passi in avanti. Ha chiesto al NIST di lanciare l'AI Risk Management Framework, un'iniziativa importante che Workday ha sostenuto sin dall'inizio e ha creato il National AI Advisory Committee, un gruppo di esperti che ha il compito di offrire consulenza alla Casa Bianca, e a cui partecipa, a titolo personale, il co-presidente di Workday Sayan Chakraborty. Tuttavia, man mano che i concetti si trasformano in politiche concrete nei vari paesi del mondo, la mancanza di ulteriori azioni da parte del Congresso diventerà sempre più evidente. È giunto il momento che il Congresso approvi una legge che risponda alla necessità di istituire tutele significative in ambito AI.

  2.  La cooperazione internazionale è fondamentale. Nel caso delle iniziative dell'UE in materia di AI, partiamo da una base di valori condivisi e persino da un certo consenso su quali siano gli elementi fondamentali di un'AI responsabile. Tuttavia, bisogna evitare il rischio di sottoporre gli innovatori a regimi normativi contraddittori. Gli Stati Uniti hanno adottato misure per promuovere la cooperazione su questi temi con le controparti europee, come la collaborazione per la creazione del Consiglio UE-USA per il commercio e la tecnologia e la recente conferma dell'ambasciatore straordinario Fick per il cyberspazio e la politica digitale. Oltre a sostenere l'UE e gli Stati Uniti, Workday è attualmente impegnata in discussioni sulle politiche relative all'AI con Australia, Canada, Singapore e Regno Unito. Siamo in un momento prolifico per quanto riguarda le politiche dell'AI e, se il passato è il prologo, la velocità del cambiamento dopo che l'Europa avrà adottato l'AI Act aumenterà notevolmente. Questo contesto richiede che gli Stati Uniti investano di più nella cooperazione internazionale in materia di AI.

  3.  Le leggi statali non si faranno attendere. In assenza di un intervento legislativo del Congresso sulla privacy, i governi degli stati si sono mossi in modo relativamente rapido per colmare il vuoto. Questo trend è iniziato molto precocemente con l'AI, ad esempio con la legge della città di New York circa l'impiego dell'intelligenza artificiale per la selezione del personale che entrerà in vigore il mese prossimo. In un momento in cui l'attività statale e locale in questo ambito è più vivace che mai, Workday si è impegnata in modo costruttivo in processi come quello della città di New York e ha cooperato con i legislatori di Sacramento e Albany, ma non solo, per promuovere regole efficaci e praticabili. Siamo lieti di constatare la presenza di contributi ponderati al dibattito, come la normativa AB 331 della California, che cerca di introdurre un approccio basato sul rischio alla regolamentazione dell'AI associato a strumenti di responsabilità collaudati, come le valutazioni d'impatto. Prevediamo che le proposte di legge a livello statale aumenteranno notevolmente l'anno prossimo.

L'adozione da parte del Parlamento europeo della sua posizione sull'AI Act segna l'inizio della fine di quello che rappresenterà uno sconvolgimento positivo e radicale del panorama mondiale delle politiche sull'AI. Gran parte dei discorsi sulla tecnologia riguardano il futuro. Per quanto riguarda il ruolo dell'Europa nella politica tecnologica, è utile guardare al passato per capire come agire per arrivare ad armonizzare quelle necessarie tutele per l'AI affinché creino fiducia e promuovano l'innovazione. 

E questo approccio armonizzato serve ora. Gli stakeholder e i policy maker statunitensi devono agire di concerto per cogliere l'opportunità di assicurare uno sviluppo responsabile dell'AI e l'attuazione di normative che concilino innovazione continua e affidabilità.

Leggi di più