Otto modi per garantire un uso etico dell'intelligenza artificiale in azienda

Basandoci sulla nostra esperienza, abbiamo raccolto otto spunti rivolti alle tech company che vogliono impegnarsi a garantire un uso etico dell'intelligenza artificiale (AI) in azienda.

Restare al passo con l'AI e nel contempo con la privacy dei dati può essere un compito davvero gravoso. Le opportunità e le potenzialità non mancano, ma vanno di pari passo a preoccupazioni legate all'utilizzo indebito dei dati e ai rischi per la privacy delle persone. Mentre valutiamo questi aspetti e in piena Quarta rivoluzione industriale, nascono interrogativi sulle potenzialità e i pericoli dell'intelligenza artificiale e sulle modalità con cui le aziende possono implementare strategie per realizzarne al meglio il valore.

L'integrazione del fattore etico nei prodotti tecnologici può risultare un concetto astratto per ingegneri e sviluppatori. Nonostante molte tech company stiano operando in modo indipendente per intraprendere iniziative volte a integrare il fattore etico in modo tangibile e concreto, è necessario uno sforzo congiunto per eliminare i silo di dati e condividere le best practice. Collaborando e imparando gli uni dagli altri possiamo alzare il livello degli standard dell'intero settore. Quale potrebbe essere un buon punto di partenza? Gli aspetti che promuovono l'affidabilità.

L'affidabilità è sempre stata uno dei valori fondamentali di Workday. I nostri clienti sanno che da anni prendiamo sul serio la loro privacy e la sicurezza dei loro dati. La protezione della privacy è essenziale per i servizi Workday e viene implementata tramite i nostri principi di tutela della privacy, il nostro approccio alla normativa GDPR e il nostro consolidato programma di riservatezza dei dati. Poiché l'evoluzione verso un futuro di sistemi incentrati sulle persone e potenziati dal machine learning è inarrestabile, utilizziamo il nostro approccio che mette privacy e sicurezza dei dati al primo posto per configurare e implementare il machine learning in modo etico.

Molte aziende pubblicano principi di carattere generale che descrivono il loro atteggiamento al design e allo sviluppo di prodotti di intelligenza artificiale. Tuttavia, i principi sono validi solo se vengono effettivamente applicati nel mondo reale. Workday ha pubblicato recentemente i termini del proprio commitment a un uso etico dell'intelligenza artificiale per illustrare come mette in pratica i principi ispirati ai valori fondamentali di servizio clienti, integrità e innovazione. Basandoci sulla nostra esperienza, abbiamo raccolto otto spunti rivolti alle tech company che vogliono impegnarsi ad applicare questi principi a livello aziendale.

1. Concordare una definizione condivisa di etica dell'intelligenza artificiale. Questa definizione deve essere specifica e attuabile per tutti gli stakeholder dell'azienda. Per Workday significa che i sistemi di machine learning riflettono l'impegno aziendale di fare un uso etico dell'intelligenza artificiale: mettiamo le persone al primo posto, teniamo nel dovuto conto gli aspetti sociali, agiamo in modo equo e nel rispetto delle leggi, garantiamo trasparenza e responsabilità, proteggiamo i dati e offriamo sistemi di machine learning pronti all'uso.

2. Incorporare un'intelligenza artificiale etica nel framework di sviluppo e rilascio dei prodotti. Questi non possono essere processi separati che creano ulteriore lavoro e complessità per gli sviluppatori e i team di prodotto. In Workday, abbiamo integrato i nostri principi nello sviluppo dei prodotti e abbiamo creato processi sempre conformi a tali principi. Per consolidare l'implementazione dei nostri principi etici nel machine learning abbiamo integrato nel framework di controllo formale nuovi controlli specifici. I nostri team di sviluppo esaminano ogni prodotto di machine learning partendo da una prospettiva etica, ponendosi domande sulla raccolta e la minimizzazione dei dati, sulla trasparenza e sui valori. Da molto tempo applichiamo questi principi nell'area della privacy, adottando processi di tipo privacy-by-design e verifiche da parte di terzi dei nostri controlli e dei nostri standard. Workday ha adottato una serie di controlli ethics-by-design per il machine learning e ha implementato severi meccanismi di verifica e approvazione per il rilascio di nuove tecnologie e per ogni nuova modalità di utilizzo dei dati. Sottoponiamo i nostri processi a verifiche continue e li aggiorniamo integrando nuove best practice, normative e linee guida di settore.

3. Creare gruppi multidisciplinari di esperti che orientino tutte le decisioni relative a design, sviluppo e implementazione del machine learning e dell'AI in modo responsabile. In una fase precoce della sua storia, Workday ha creato una Machine Learning Task Force costituita da esperti di diversi ambiti - sviluppo di prodotti ed engineering, legale, politica pubblica e privacy, etica e conformità - incaricata di esaminare gli utilizzi presenti e futuri del machine learning nei prodotti. L'integrazione di competenze e punti di vista diversi per discutere degli utilizzi presenti e futuri del machine learning nei prodotti è stata realmente utile e ci ha consentito di identificare potenziali problemi fin dalle prime fasi del ciclo di vita dei prodotti.

4. Introdurre la collaborazione dei clienti nelle fasi di progettazione, sviluppo e implementazione di un tipo di intelligenza artificiale responsabile. Durante il ciclo di sviluppo dei prodotti, Workday coinvolge i Customer Advisory Council, gruppi che rappresentano un'ampia porzione della base di clienti, per ottenere feedback sui temi dell'intelligenza artificiale e del machine learning. Inoltre, attraverso il programma Early Adopter, Workday lavora a stretto contatto con alcuni clienti che assolvono la funzione di "design partner" testando i nuovi modelli e le funzionalità di machine learning tramite il Workday Innovation Services Agreement. Questo ci consente di comprendere e soddisfare le esigenze dei clienti in materia di intelligenza artificiale e machine learning fin dalle fasi iniziali dello sviluppo congiunto delle soluzioni di machine learning.

5. Valutare i pregiudizi nel machine learning adottando una prospettiva "ciclo di vita". Gli strumenti di machine learning rappresentano un'opportunità eccezionale per aiutare i clienti a utilizzare i dati in modo più efficace e migliorare i processi decisionali. A questa opportunità è legata la responsabilità di creare strumenti pronti per l'utilizzo a livello aziendale che non tradiscano la fiducia riposta in noi dai nostri clienti. Per questo motivo, uno degli aspetti essenziali dell'impegno di Workday per un uso etico dell'intelligenza artificiale riguarda la riduzione al minimo dei pregiudizi dannosi all'interno dei modelli di machine learning. Workday ha scelto un approccio di tipo "ciclo di vita" in cui le verifiche volte a valutare la presenza di pregiudizi iniziano nella fase di concezione di un prodotto e continuano fino a dopo il rilascio.

6. Essere trasparenti. L'utilizzo etico dei dati per il machine learning richiede trasparenza. Dal momento che gli algoritmi di machine learning possono essere molto complessi, le aziende devono fare il massimo per spiegare quali dati vengono utilizzati, per quali scopi e con quali modalità. Spieghiamo ai nostri clienti in che modo funzionano le nostre tecnologie di machine learning, i vantaggi che apportano e quali sono i dati necessari per farle funzionare. In questo modo, diamo prova di affidabilità nella gestione delle soluzioni di machine learning.

7. Aiutare i dipendenti a creare prodotti responsabili. Per garantire il rispetto del suo commitment verso un utilizzo etico dell'intelligenza artificiale, Workday mette a disposizione dei dipendenti moduli di formazione obbligatori, toolkit, seminari, procedure di onboarding e workshop che trattano di etica dell'AI. Ad esempio, spieghiamo ai nostri dipendenti l'importanza di creare modelli di machine learning eticamente corretti mediante un workshop di design orientato alla considerazione del fattore umano che utilizza diversi scenari e personaggi.

8. Condividere le proprie conoscenze e apprendere da altri player del settore. Workday si impegna in questo senso partecipando a gruppi di settore e incontri tra rappresentanti di aziende simili, come il World Economic Forum Steering Committee for Ethical Design and Deployment of Technology, al fine di contribuire alla creazione di un quadro operativo etico per il settore tecnologico. Per Workday, monitorare e contribuire allo sviluppo di nuovi standard rappresenta una priorità. Negli Stati Uniti, Workday ha stabilito collaborazioni con legislatori e rappresentanti governativi in merito a un uso etico dell'intelligenza artificiale, ha presentato un intervento presso il Congressional Artificial Intelligence Caucus dal titolo "Industry Approaches to Ethical AI", ha esercitato la funzione di intermediario tra il settore e i legislatori in varie occasioni, ha fornito supporto per l'aggiornamento del National Artificial Intelligence Research and Development Strategic Plan organizzato dalla National Science Foundation e per la redazione del report "Artificial Intelligence Standards and Tools Development" del National Institute of Standards and Technology (NIST), organismo che secondo Workday dovrebbe ricoprire un ruolo più significativo per lo sviluppo di strumenti che favoriscano un utilizzo etico dell'intelligenza artificiale. In Europa, Workday ha partecipato a un programma pilota per valutare il Trustworthy Artificial Intelligence Assessment List incluso nelle linee guida etiche HLEG dell'Unione Europea.

Per favorire l'evoluzione di un uso etico dell'intelligenza artificiale, sarà sempre più importante condividere le best practice e inquadrare le esperienze acquisite lungo il percorso. Siamo interessati al feedback di altre aziende circa gli approcci utili per l'integrazione e l'implementazione di questi principi e siamo lieti condividere le nostre esperienze. Di fatto, lo scopo della collaborazione di Workday al World Economic Forum è spingere altri a condividere le proprie best practice per favorire uno sviluppo tecnologico responsabile ed etico. La realizzazione di modelli eticamente corretti e responsabili per la tecnologia e l'intelligenza artificiale è una necessità che trascende l'interesse delle singole aziende o organizzazioni.

Insieme, con le nostre azioni, dobbiamo promuovere positività e affidabilità nei confronti di queste nuove e potenti tecnologie.

Leggi di più