Workday tutela la privacy senza smettere di innovare con l'AI

Barbara Cosgrove, Chief Privacy Officer di Workday, parla della crescente necessità di far convergere privacy dei dati e intelligenza artificiale (AI). Scopri come Workday concilia la privacy dei dati con la necessità di ottenere il massimo valore dall'AI.

Il 25 maggio è il quinto anniversario dell'entrata in vigore del GDPR, il regolamento generale sulla protezione dei dati che ha introdotto una serie di obblighi di trasparenza e attribuzione di responsabilità per il trattamento dei dati e che ha imposto alle aziende di adottare i framework privacy-by-design. Le conversazioni tra clienti e autorità di regolamentazione vertono sempre più spesso sulla necessità di far convergere privacy dei dati, intelligenza artificiale (AI) e machine learning (ML). A seconda dell'interlocutore, il futuro di AI e ML sembra brillante, tetro o entrambe le cose. Personalmente ciò non mi sorprende, perché storicamente l'innovazione ha sempre causato questo tipo di reazione. 

La privacy dei dati è di vitale importanza quando si opera con tecnologie di AI e ML. I modelli di intelligenza artificiale dipendono fortemente dalla qualità e dalla quantità dei dati che ricevono. Le aziende però si trovano a un bivio: come ottenere il massimo valore dalle soluzioni basate su AI e ML senza violare la privacy dei dati? I business leader richiedono elevati livelli di sicurezza per mantenere al sicuro le informazioni aziendali, ma allo stesso tempo vogliono automatizzare le attività più ripetitive in modo che i dipendenti possano concentrarsi su compiti più significativi. 

La buona notizia è che innovazione responsabile e tutela dei diritti personali non si escludono necessariamente a vicenda. Workday adotta un approccio equilibrato che consente di utilizzare gli ultimi progressi tecnologici in ambito AI e ML senza venire meno all'impegno per la tutela della privacy e per un'intelligenza artificiale etica.

Come Workday gestisce le innovazioni in materia di AI

L'introduzione di misure adeguate per la tutela della privacy dei dati contribuisce a creare fiducia e sicurezza nelle tecnologie basate sull'AI e il machine learning il che, a sua volta, promuove l'adozione e un utilizzo più diffuso di queste tecnologie. Mentre progettiamo prodotti e servizi innovativi, troviamo sempre nuovi modi per integrare la privacy nelle soluzioni AI e ML che sviluppiamo.

Per definizione, il termine innovazione significa introdurre qualcosa di nuovo. Poiché i tradizionali standard di conformità potrebbero non essere appropriati o facilmente applicabili a una nuova idea, un nuovo prodotto o un nuovo processo, in Workday non aspettiamo che qualcun altro stabilisca gli standard: creiamo in modo proattivo i nostri standard interni e supportiamo gli standard esterni che ci aiutano a raggiungere i nostri obiettivi di conformità. Inoltre aiutiamo i nostri clienti a capire cosa intendiamo per conformità. Ecco alcuni esempi di come operiamo.

Anticipiamo le esigenze dei clienti. Quando è entrato in vigore il GDPR, non erano previsti audit o certificazioni di conformità. Workday ha rapidamente introdotto una mappatura nel suo report SOC 2 in modo che i clienti potessero comprendere cosa intendevamo per conformità. Abbiamo quindi collaborato con Scope Europe per lavorare alla creazione del Cloud Code of Conduct (CCoC) dell'UE, che dimostra la conformità al GDPR. Workday è stata la prima azienda a certificare l'adesione al CCoC.

Basandoci sulla nostra esperienza con il GDPR, abbiamo capito che, per potersi fidare che operavamo rispettando i nostri valori, i clienti avevano bisogno di informazioni sulle nostre funzionalità di machine learning. Per garantire trasparenza ai clienti, forniamo schede tecniche che descrivono il funzionamento delle nostre soluzioni AI. Questo livello di trasparenza aiuta i clienti a condurre i cosiddetti "privacy impact assessment" volti identificare i possibili rischi associati all'intelligenza artificiale e al machine learning.

Supportiamo lo sviluppo di standard, framework e best practice. Workday è leader nello sviluppo di soluzioni AI affidabili e responsabili. Fin dall'inizio, Workday ha supportato e contribuito al framework per la gestione dei rischi dell'AI denominato AI Risk Management Framework del National Institute of Standards and Technology (NIST AI RMF). Collaboriamo con le autorità di regolamentazione e i legislatori di tutto il mondo alla definizione di standard nazionali e internazionali che regolino lo sviluppo di un'AI affidabile e responsabile.

Mentre progettiamo prodotti e servizi innovativi, troviamo sempre nuovi modi per integrare la privacy nelle soluzioni AI e ML che sviluppiamo.

Il nostro Co-President Sayan Chakraborty è, a titolo personale, membro del NAIAC (National AI Advisory Committee), ovvero il più importante gruppo di esperti interdisciplinari di intelligenza artificiale, a cui il Congresso degli Stati Uniti ha affidato il compito di consigliare il presidente Joe Biden sulle questioni relative all'intelligenza artificiale. Io sono anche co-presidente dell'HR Working Group del RAI Institute, un'organizzazione no-profit che ha l'obiettivo di fornire strumenti per l'acquisto, la vendita e la creazione di sistemi di intelligenza artificiale sicuri e affidabili, e faccio parte del CdA dell'International Association of Privacy Professionals, che ha appena annunciato la creazione di un nuovo AI Governance Center. C'è ancora molto lavoro da fare perché gli standard, i framework e le best practice evolvono, ma stiamo collaborando con legislatori, autorità di regolamentazione e leader del settore per creare soluzioni praticabili e sostenibili.

Non reinventiamo la ruota, ci appoggiamo a basi solide. Per elaborare e gestire il programma di governance ML, il nostro team ML Trust attinge alla lunga esperienza di Workday in materia di principi di privacy-by-design. Il gruppo ML Trust lavora a stretto contatto con me e il Privacy Team su aspetti cruciali del programma come principi, politiche, standard e linee guida. Questi team sono costantemente in contatto per evitare che si lavori in modo isolato.

Per fare un esempio, i team collaborano alla minimizzazione dei dati. Un gruppo interfunzionale ha il compito di valutare e persino contestare che determinati dati siano necessari per una data funzionalità o un prodotto. Questo controllo continua anche dopo l'inizio della raccolta dei dati e i dati che non sono più ritenuti necessari vengono prontamente rimossi.

Forniamo consulenza, addestramento e formazione per aiutare i dipendenti a innovare in modo responsabile. Workday considera prioritario addestrare e formare adeguatamente i Workmate che lavorano con AI e ML sui potenziali rischi e le questioni etiche associate al loro utilizzo. Per questo motivo stabiliamo linee guida chiare per l'uso di queste tecnologie, come l'AI generativa. Le linee guida includono anche specifici use case e scenari in cui utilizzarle o evitarle. In questo modo mitighiamo i rischi e garantiamo un uso delle tecnologie AI e ML in linea con i valori e i principi etici della nostra azienda. Vogliamo consentire ai nostri sviluppatori di creare prodotti innovativi e affidabili per i clienti muovendosi in modo rapido e responsabile nel rispetto dei nostri impegni per la privacy.

Impegno costante a favore della privacy

L'innovazione si sta muovendo alla velocità della luce e con tecnologie come l'intelligenza artificiale, la privacy rimarrà sempre una priorità per noi. Workday rimane un sostenitore degli approcci normativi basati sul rischio che conciliano privacy e innovazione. Teniamo sotto controllo tutto ciò che riguarda privacy, AI e ML per anticipare eventuali cambiamenti che potrebbero avere un impatto sui nostri clienti o sulle tecnologie di Workday. Il nostro obiettivo ultimo è fare in modo che i nostri clienti possano continuare ad avvalersi della produttività, degli insight e della capacità di amplificare il potenziale umano che offrono i prodotti Workday.

Leggi di più