Il 25 maggio è il quinto anniversario dell'entrata in vigore del GDPR, il regolamento generale sulla protezione dei dati che ha introdotto una serie di obblighi di trasparenza e attribuzione di responsabilità per il trattamento dei dati e che ha imposto alle aziende di adottare i framework privacy-by-design. Le conversazioni tra clienti e autorità di regolamentazione vertono sempre più spesso sulla necessità di far convergere privacy dei dati, intelligenza artificiale (AI) e machine learning (ML). A seconda dell'interlocutore, il futuro di AI e ML sembra brillante, tetro o entrambe le cose. Personalmente ciò non mi sorprende, perché storicamente l'innovazione ha sempre causato questo tipo di reazione.
La privacy dei dati è di vitale importanza quando si opera con tecnologie di AI e ML. I modelli di intelligenza artificiale dipendono fortemente dalla qualità e dalla quantità dei dati che ricevono. Le aziende però si trovano a un bivio: come ottenere il massimo valore dalle soluzioni basate su AI e ML senza violare la privacy dei dati? I business leader richiedono elevati livelli di sicurezza per mantenere al sicuro le informazioni aziendali, ma allo stesso tempo vogliono automatizzare le attività più ripetitive in modo che i dipendenti possano concentrarsi su compiti più significativi.
La buona notizia è che innovazione responsabile e tutela dei diritti personali non si escludono necessariamente a vicenda. Workday adotta un approccio equilibrato che consente di utilizzare gli ultimi progressi tecnologici in ambito AI e ML senza venire meno all'impegno per la tutela della privacy e per un'intelligenza artificiale etica.
Come Workday gestisce le innovazioni in materia di AI
L'introduzione di misure adeguate per la tutela della privacy dei dati contribuisce a creare fiducia e sicurezza nelle tecnologie basate sull'AI e il machine learning il che, a sua volta, promuove l'adozione e un utilizzo più diffuso di queste tecnologie. Mentre progettiamo prodotti e servizi innovativi, troviamo sempre nuovi modi per integrare la privacy nelle soluzioni AI e ML che sviluppiamo.
Per definizione, il termine innovazione significa introdurre qualcosa di nuovo. Poiché i tradizionali standard di conformità potrebbero non essere appropriati o facilmente applicabili a una nuova idea, un nuovo prodotto o un nuovo processo, in Workday non aspettiamo che qualcun altro stabilisca gli standard: creiamo in modo proattivo i nostri standard interni e supportiamo gli standard esterni che ci aiutano a raggiungere i nostri obiettivi di conformità. Inoltre aiutiamo i nostri clienti a capire cosa intendiamo per conformità. Ecco alcuni esempi di come operiamo.
Anticipiamo le esigenze dei clienti. Quando è entrato in vigore il GDPR, non erano previsti audit o certificazioni di conformità. Workday ha rapidamente introdotto una mappatura nel suo report SOC 2 in modo che i clienti potessero comprendere cosa intendevamo per conformità. Abbiamo quindi collaborato con Scope Europe per lavorare alla creazione del Cloud Code of Conduct (CCoC) dell'UE, che dimostra la conformità al GDPR. Workday è stata la prima azienda a certificare l'adesione al CCoC.
Basandoci sulla nostra esperienza con il GDPR, abbiamo capito che, per potersi fidare che operavamo rispettando i nostri valori, i clienti avevano bisogno di informazioni sulle nostre funzionalità di machine learning. Per garantire trasparenza ai clienti, forniamo schede tecniche che descrivono il funzionamento delle nostre soluzioni AI. Questo livello di trasparenza aiuta i clienti a condurre i cosiddetti "privacy impact assessment" volti identificare i possibili rischi associati all'intelligenza artificiale e al machine learning.
Supportiamo lo sviluppo di standard, framework e best practice. Workday è leader nello sviluppo di soluzioni AI affidabili e responsabili. Fin dall'inizio, Workday ha supportato e contribuito al framework per la gestione dei rischi dell'AI denominato AI Risk Management Framework del National Institute of Standards and Technology (NIST AI RMF). Collaboriamo con le autorità di regolamentazione e i legislatori di tutto il mondo alla definizione di standard nazionali e internazionali che regolino lo sviluppo di un'AI affidabile e responsabile.