So gewährleistet Workday Datenschutz bei KI-Innovationen

Barbara Cosgrove, Chief Privacy Officer bei Workday, erläutert die zunehmende Bedeutung des Datenschutzes beim Einsatz künstlicher Intelligenz (KI). Erfahren Sie, wie Workday Daten schützt und gleichzeitig das volle Potenzial künstlicher Intelligenz nutzt.

Der 25. Mai ist der fünfte Jahrestag der Datenschutz-Grundverordnung (DSGVO) – was für ein unvergleichliches Abenteuer es bisher war! Die DSGVO löste eine neue Welle der Transparenz und der Rechenschaftspflichten bei der Datenverarbeitung aus und verlangte von Unternehmen die Anwendung von Privacy-by-Design-Frameworks. In meinen Interaktionen mit Kunden und Aufsichtsbehörden konzentrieren sich die Gespräche zunehmend auf die Konvergenz von Datenschutz und künstlicher Intelligenz (KI) sowie Machine Learning (ML). Je nachdem, wen Sie fragen, ist die Zukunft von KI und ML hell, düster oder eine Kombination von beidem. Für mich ist das keine Überraschung, denn historisch gesehen löst jede Innovation sehr unterschiedliche Reaktionen aus. 

Datenschutz hat in der KI- und ML-Technologie einen besonders hohen Stellenwert. Die jeweiligen Modelle hängen insbesondere von der Qualität und Quantität der erfassten Daten ab. Unternehmen stehen jedoch vor der Herausforderung, den Nutzen von KI- und ML-Lösungen zu maximieren, ohne den Datenschutz zu beeinträchtigen. Führungskräfte wünschen sich Fortschritte bei der Sicherheit, um die Informationen ihres Unternehmens zu schützen. Gleichzeitig sollen Routineaufgaben automatisiert werden, damit sich ihre Mitarbeiter sinnvolleren Aufgaben widmen können. 

Die gute Nachricht ist, dass verantwortungsvolle Innovation und der Schutz der Persönlichkeitsrechte des Einzelnen einander nicht ausschließen müssen. Bei Workday verfolgen wir einen ausgewogenen Ansatz, der es uns ermöglicht, die neuesten Fortschritte in der KI- und ML-Technologie zu nutzen und gleichzeitig weiterhin unseren ethischen Grundsätzen beim Einsatz von KI treu zu bleiben.

KI-Innovationen bei Workday

Angemessene Datenschutzmaßnahmen können dazu beitragen, das Vertrauen in KI und ML zu erhöhen. Dies wiederum fördert eine stärkere Akzeptanz und Nutzung dieser Technologien. Genauso wie wir mit unseren Produkten und Services Innovationen anstreben, finden wir innovative Wege, in unseren KI- und ML-Lösungen den Datenschutz zu verankern.

Innovation ist per Definition die Einführung von etwas Neuem. Traditionelle Compliance-Standards sind nicht immer einfach anzuwenden und passen nicht unbedingt zu einer neuen Idee, einem neuen Produkt oder einer neuen Vorgehensweise. Bei Workday warten wir nicht darauf, bis jemand mit einem Standard an uns herantritt. Vielmehr erstellen wir proaktiv interne Standards und setzen uns extern für Standards ein, die uns unseren Compliance-Zielen näherbringen. Außerdem bringen wir unseren Kunden unser Verständnis von Compliance näher. Nachfolgend ein paar Beispiele, wie das gelingt:

Wir antizipieren Kundenbedürfnisse. Als die DSGVO in Kraft trat, gab es kein genehmigtes Audit oder eine Zertifizierung für Compliance. Workday fügte unserem SOC 2-Bericht sehr schnell ein Mapping hinzu, damit die Kunden unsere Compliance nachvollziehen konnten. Daraufhin haben wir zusammen mit Scope Europe am EU Cloud Code of Conduct mitgewirkt, der die Compliance mit der DGSVO nachweist. Wir haben als erstes Unternehmen den Compliance-Nachweis erbracht.

Aufgrund unserer Erfahrung mit der DSGVO wussten wir, dass Kunden Informationen über unsere ML-Kompetenz benötigen, um darauf vertrauen zu können, dass wir unserem Werteanspruch gerecht werden. Um den Kunden Transparenz zu bieten, stellen wir Datenblätter zur Verfügung, die beschreiben, wie unsere KI-Lösungen funktionieren. Dieser Grad an Transparenz hilft den Kunden bei ihren Folgenabschätzungen, um mögliche Risiken im Zusammenhang mit KI und ML frühzeitig zu erkennen.

Wir unterstützen die Entwicklung von Standards, Frameworks und Best Practices. Workday ist führend in der Entwicklung vertrauenswürdiger und verantwortungsvoller KI. Von Anfang an hat Workday das AI Risk Management Framework (NIST AI RMF) des National Institute of Standards and Technology aktiv unterstützt und dazu beigetragen. Wir arbeiten weltweit mit Aufsichtsbehörden und politischen Entscheidungsträgern zusammen, um nationale und globale Standards für die Entwicklung vertrauenswürdiger und verantwortungsvoller KI zu etablieren.

Genauso wie wir mit unseren Produkten und Services Innovationen anstreben, finden wir innovative Wege, in unseren KI- und ML-Lösungen den Datenschutz zu verankern.

Darüber hinaus ist unser Co-President Sayan Chakraborty persönlich Mitglied des National AI Advisory Committee (NAIAC), dem höchsten nationalen US-Team von interdisziplinären KI-Experten, das dem Kongress untersteht und US-Präsident Joe Biden in KI-Fragen berät. Ich bin auch Co-Vorsitzende der HR Working Group des Responsible AI Institute, einer gemeinnützigen Organisation, die Lösungen zum Kauf, Verkauf oder zur Entwicklung sicherer und vertrauenswürdiger KI-Systeme bereitstellt, und ich bin im Vorstand des International Association of Privacy Professionals, der gerade ein neues AI Governance Center angekündigt hat. Es gibt noch viel zu tun, da Standards, Frameworks und Best Practices sich weiterentwickeln, aber wir arbeiten gemeinsam mit Gesetzgebern, Aufsichtsbehörden und Branchenführern an praktikablen und nachhaltigen Lösungen.

Wir erfinden das Rad nicht neu, stützen uns aber auf solide Grundlagen. Unser ML Trust-Team nutzt bei der Entwicklung und Verwaltung unseres ML-Governance-Programms die lange Geschichte der Privacy-by-Design-Prinzipien von Workday. ML Trust arbeitet eng mit mir und dem Datenschutzteam an Schlüsselaspekten des Programms zusammen, darunter Grundsätzen, Richtlinien, Standards und Leitlinien. Außerdem sind diese Teams eng verzahnt, um sicherzustellen, dass nicht in Silos gearbeitet wird.

So arbeiten die Teams beispielsweise bei der Datenminimierung zusammen. Eine funktionsübergreifende Gruppe führt eine kritische Bewertung der Notwendigkeit von Daten für eine bestimmte Funktion oder ein bestimmtes Produkt durch, um sicherzustellen, dass diese Daten absolut notwendig sind. Diese Prüfung wird auch nach Beginn der Datenerfassung fortgesetzt, wobei nicht mehr als notwendig erachtete Daten sofort gelöscht werden.

Wir bieten Beratung, Weiterbildung und Schulung, damit unsere Mitarbeiter verantwortungsvolle Innovationsarbeit leisten können. Unsere wichtigste Priorität bei Workday ist es, sicherzustellen, dass unsere für KI- und ML-Technologie zuständigen Workmates über die potenziellen Risiken und ethischen Überlegungen bei ihrer Anwendung umfassend informiert und aufgeklärt werden. Deshalb legen wir klare Leitlinien für den Einsatz dieser Technologien, wie etwa der generativen KI, fest. Diese Leitlinien enthalten auch spezifische Anwendungsfälle und Szenarien, in denen sie eingesetzt und vermieden werden sollten. Das hilft uns, potenzielle Risiken zu mindern und sicherzustellen, dass der Einsatz von KI- und ML-Technologie mit den Werten und ethischen Grundsätzen unseres Unternehmens im Einklang steht. Wir möchten unsere Entwickler in die Lage versetzen, schnell und verantwortungsvoll zu handeln, um die besten innovativen und vertrauenswürdigen Produkte für unsere Kunden zu entwickeln, die mit unseren Datenschutzverpflichtungen vereinbar sind.

Unermüdliches Engagement für Datenschutz

Innovation schreitet blitzschnell voran und mit Technologien wie KI wird der Datenschutz für uns immer eine Priorität bleiben. Workday bleibt ein Verfechter risikobasierter Regulierungsansätze, die Datenschutz mit Innovation in Einklang bringen. Wir beobachten weiter die Entwicklung der Datenschutz- und der KI- und ML-Landschaft, um frühzeitig Änderungen zu erkennen, die sich auf unsere Kunden oder Workday-Technologien auswirken könnten. Unser oberstes Ziel ist es, sicherzustellen, dass unsere Kunden auch weiterhin von der Produktivität, den Erkenntnissen und der Förderung des menschlichen Potenzials profitieren können, die durch die Workday-Produkte möglich sind.

Weiteres Lesematerial