Das ist nicht nur eine einprägsame Phrase, sondern ein ethischer Imperativ. Die damit verbundenen Überlegungen im Zusammenhang mit KI und ML dürfen nicht nur Fußnoten in der großen Erzählung des technologischen Fortschritts und in Unternehmens-Whitepapern sein; sie müssen die Grundlage sein, auf der dieser technologische Fortschritt aufgebaut wird.
In den Medien lesen wir immer häufiger vor allem von dem Potenzial der KI, bestehende soziale Ungleichheiten aufrechtzuerhalten oder sogar zu verschärfen. Algorithmen, die auf voreingenommene Daten trainiert wurden, werden sehr wahrscheinlich zu voreingenommenen Ergebnissen führen.
Das ist nicht nur ein technisches Problem, sondern auch ein ethisches. Es wirft Fragen zu Diskriminierung, Fairness und sozialer Gerechtigkeit auf. Wenn Gesichtserkennungssysteme beispielsweise hauptsächlich anhand von Daten weißer Menschen trainiert werden, werden sie Schwierigkeiten haben, Menschen anderer Ethnien korrekt zu identifizieren. Dies kann zu falschen Anschuldigungen oder Diskriminierung führen.
KI-Systeme, die in der Personalabteilung eingesetzt werden, könnten Geschlechterstereotype verstärken, wenn sie auf Daten trainiert werden, die eine ungleiche Verteilung von Männern und Frauen in bestimmten Berufen zeigen. Adaptive Lernsysteme könnten Schülerinnen und Schüler aus benachteiligten Verhältnissen weiter benachteiligen, wenn sie nicht für die Vielfalt der Lernbedürfnisse ausgelegt sind.
Die ethischen Fragen rund um KI sind weitreichend und komplex. Sie erfordern sorgfältige Überlegung und Diskussion.
Eines der drängendsten ethischen Probleme: die „Black Box“ vieler KI-Algorithmen. Wenn Entscheidungen von undurchschaubaren Algorithmen getroffen werden, untergräbt dies die Idee der Rechenschaftspflicht. Wie können wir eine Entscheidung anfechten, wenn wir nicht wissen, wie sie zustande gekommen ist? Transparenz ist nicht nur ein Nice-to-have, sondern ein Must-have. Ohne sie riskieren wir, Systeme zu schaffen, die nicht nur unverständlich, sondern auch ungerecht sind.
Der Workday-Ansatz für ethische KI
Es steht viel auf dem Spiel. Künstliche Intelligenz und Maschinelles Lernen haben das Potenzial, die Zukunft der Arbeit in einer Weise neu zu definieren, wie wir es seit der Industriellen Revolution nicht mehr erlebt haben. Allerdings nur dann, wenn die Technologie auch wirklich in den Unternehmen adaptiert wird.
Aber um es klar zu sagen: Dabei geht es nicht nur um technologische Fähigkeiten, sondern auch um ethische Verantwortung. Bei Workday sind wir nicht nur passive Beobachter dieses Wandels, sondern aktive Teilnehmer, die sich dafür einsetzen, dass KI und ML zum Wohle der Allgemeinheit eingesetzt werden – sowohl innerhalb unserer Plattform als auch weltweit.
Unser Engagement für verantwortungsvolle KI ist nicht nur ein Firmenslogan, sondern ein tief verwurzelter Teil unserer DNA. Unsere Kunden vertrauen uns ihre sensiblen Daten an, und das nehmen wir nicht auf die leichte Schulter. Wir verpflichten uns, Innovationen im Einklang mit unseren Grundwerten zu entwickeln, und legen Wert auf ein menschenzentriertes Design und sinnvolle Schutzmaßnahmen.
Es geht nicht nur darum, Geschäfte zu machen, sondern darum, Geschäfte richtig zu machen. Deswegen dienen uns unsere ethischen KI- und ML-Prinzipien, die wir schon 2019 eingeführt haben, als Guidance bei allen Produktentscheidungen, die KI und ML betreffen. Diese Grundsätze werden durch unser Responsible AI Governance-Programm umgesetzt, das einen Rahmen für ethische Entscheidungen bietet. Dieses Programm ist kein statisches Dokument, sondern eine lebendige, atmende Initiative, die sich weiterentwickelt, während wir weiter lernen und wachsen.
Datenschutz und -sicherheit stehen dabei an erster Stelle. Wir halten uns an die Grundsätze des Privacy by Design und achten sehr genau auf die Qualität der Daten, die wir für unsere Modelle nutzen. Darüber hinaus wenden wir ein risikobasiertes Prüfverfahren an, um potenziell risikoreiche KI-Anwendungen zu bewerten, insbesondere solche, die ganz direkt Einfluss auf Menschen haben können, nämlich wenn es um ihre Arbeit geht: also bei Einstellungen, Beförderungen oder der Entwicklung von Fähigkeiten.
Wir bei Workday haben ein engagiertes Team von Sozial- und Datenwissenschaftlern, die als ethische „Aufpasser“ für unsere KI- und ML-Technologien im Einsatz sind. Das ist kein Nebenjob für sie, sondern ihre Hauptaufgabe. Sie arbeiten Hand in Hand mit unserem Responsible AI Advisory Board, einem Gremium von Führungskräften aus dem gesamten Unternehmen, um ethische Probleme zu lösen, die wie unerwartete Softwarefehler auftauchen können.
Hochriskante Anwendungen? Dafür haben wir ein Regelwerk.
Unser verantwortungsbewusstes KI-Team entwickelt strenge Prüf- und Abmilderungsprotokolle schneller, als du „Maschinelles Lernen“ sagen kannst. Wir bieten zudem einen kristallklaren Einblick in unsere KI-Modelle – komplett mit einer Dokumentation, die alles von A bis Z abdeckt: Aufbau, Betrieb und Validierung. Denn Transparenz ist eines der Schlüsselkonzepte für den Aufbau ethischer und verantwortungsbewusster KI- und ML-Technologien.
Wenn wir in die Zukunft blicken, tauchen wir nicht nur unsere Zehen ins Wasser. Workday taucht ganz ein. Risikobewertungen werden genauso zum Standard gehören wie Code-Reviews, und sie werden früher im Innovationszyklus stattfinden. Außerdem arbeiten wir an umfassenden Compliance-Richtlinien und Schulungsprogrammen. Und warum? Um sicherzustellen, dass unser Team nicht nur redet, sondern auch handelt, wenn es um ethische KI geht.
Wenn wir also das nächste Mal von der neuesten KI-Magie begeistert sind, sollten wir uns einen Moment Zeit zum Nachdenken nehmen. Es geht nicht nur um das „Was“, sondern auch um das „Wie“. Und hier bei Workday ist das „Wie“ nicht verhandelbar. Ethische KI ist kein Nice-to-have, sie ist ein Must-have. Und das ist eine Verpflichtung, die wir nicht nur eingehen, sondern auch leben, Tag für Tag.