Alle reden über KI in Deutschland

Aber keiner ist wirklich so weit. KI in Deutschland (Künstliche Intelligenz) ist omnipräsent, jedoch zeigt die Realität, dass nur ein kleiner Teil der Unternehmen diese Technologien tatsächlich nutzt, und es gibt eine digitale Kluft zwischen dem, was möglich ist und der aktuellen Anwendung in der DACH-Region.

Alle reden über KI in Deutschland

Aber keiner ist wirklich so weit. Künstliche Intelligenz und Maschinelles Lernen schreien uns aus allen Richtungen an. Wirklich.

Aus den sozialen Medien, Posts von Unternehmen oder Business-Veranstaltungen, und natürlich aus fast jedem Vortrag, den man so hören kann (ich sage nur: „Wie ChatGPT Sie produktiver macht“). Das ist alles wundervoll und ja, sogar irgendwie berauschend und aufregend. So viele Möglichkeiten!

Bei Workday ist das Thema natürlich auch ein großer Schwerpunkt. (KI und ML sind das Herzstück der Technologieplattform von Workday, also waren wir schon auf dem Zug, als viele andere noch nicht einmal wussten, dass es eine Dampflok gibt).

Aber wenn man sich dann der Realität stellt und die Technologielandschaft in der DACH-Region wirklich betrachtet, sieht man, dass wir vielerorts sogar den Stichtag für die Digitalisierung verpasst haben. Es ist fast schon erschreckend, wie viel Papier und Analoges noch in den Büros zirkuliert. Und doch springen wir in die Zukunft und sprechen über Künstliche Intelligenz und Maschinelles Lernen?

Die Realitätslücke

Laut einer Bitkom-Studie, die 2022 in Deutschland 606 Unternehmen aus allen Branchen befragte, setzen gerade mal 9 Prozent der Unternehmen tatsächlich KI ein. Neun Prozent! Das ist so, als würdest du sagen, du liebst klassische Musik, warst aber noch nie in einem Konzert (und ja, wir bei Workday waren nicht nur im Konzert, wir komponieren die Sinfonie).

Auch die Zahlen einer Deloitte-Studie stimmen nicht gerade zuversichtlich, geschweige denn rechtfertigen sie den performanten Hype, dem sich viele gerade hingeben. Laut „Künstliche Intelligenz in KMU“ halten lediglich 30 Prozent der Befragten KI für nur mittelmäßig relevant.

34 Prozent glauben sogar, dass die Bedeutung von KI gering oder sehr gering ist. Da kann man beinahe schon das Piepen des Faxgerätes im Hintergrund hören. Wenigstens denken 59 Prozent, dass die Bedeutung von KI in den kommenden Jahren zunehmen wird.

Zahlen wie diese machen auf ein Phänomen aufmerksam, das in so einem Hype häufig vergessen wird: die digitale Kluft, die sich zwischen Unternehmen unterschiedlicher Reifegrade auftut. In der Deloitte-Studie gaben gerade mal 22 Prozent der befragten Unternehmen an, sich als digital hoch entwickelt anzusehen, während 34 Prozent sich als wenig entwickelt betrachten.

Die Einschätzung der Relevanz von KI korreliert dabei offensichtlich stark mit dem eigenen digitalen Reifegrad. Es kommt aber noch dicker: 58 Prozent der Befragten sehen KI als strategisch unbedeutend oder sehr unbedeutend an, während nur ein Fünftel ihr eine hohe oder sehr hohe Bedeutung beimisst.

50 Prozent der KI-Forscher glauben jedenfalls, dass wir mit dem Feuer spielen.

Eine Büchse der Pandora voller Möglichkeiten und Fallstricke

Wir reden hier über eine Technologie, die das Potenzial hat, den Klimawandel aufzuhalten oder das Gesundheitswesen zu revolutionieren. Sie könnte unsere Gesellschaft komplett verändern – aber auch der Vorbote unseres eigenen Untergangs sein. „Die Wahrscheinlichkeit, dass innerhalb der nächsten zwei Jahre etwas unglaublich Verheerendes passiert, das sich auf den gesamten Planeten auswirken kann, ist bei KI definitiv größer als beim Klimawandel“, sagt Mo Gawdat, ehemaliger Google Executive. Wenn das schon jemand von Google sagt: Das gibt einem doch zu denken, oder?

Also: Befinden wir uns nun in einer Utopie oder in einer Dystopie? Die Antwort ist ein klares „Ja“ – zu beidem. KI ist ein zweischneidiges Schwert, und wir sind immer noch dabei herauszufinden, wie wir damit umgehen können, ohne uns selbst zu schneiden.

Das Thema polarisiert so stark wie eine politische Debatte, und genau wie in der Politik liegt die Wahrheit irgendwo in der Mitte. Aber wir sollten nicht vergessen, dass auch der Mittelweg keine Sicherheit und Vorhersehbarkeit bietet. Und wie wir bei den jüngsten Kontroversen um Deepfakes und Fehlinformationen gesehen haben, kann die Technologie auf eine Weise eingesetzt werden, die zutiefst beunruhigend ist. Dem nicht wirklich Bedeutung beizumessen, ist schon ziemlich vermessen.

Ganz egal, auf welcher Seite der KI-Narrative man sich selbst befindet – ob man nun denkt, KI ist der weiße Ritter auf dem Pferd, oder ob man sich das Ganze eher als apokalyptisches Roboter-gegen-Mensch-Szenario vorstellt. 50 Prozent der KI-Forscher jedenfalls glauben, dass wir mit dem Feuer spielen.

Für diejenigen, die sich fragen, wie tiefgreifend die ethischen und technologischen Dilemmata der KI wirklich sind, bietet das Transkript des Podcasts „The AI Dilemma“ eine erschütternde Perspektive. Es zeigt, dass selbst Experten die volle Tragweite und die potenziellen Konsequenzen von KI nicht vollständig verstehen.

Wir sind also schon längst mittendrin, im Wettlauf zwischen KI und unseren eigenen kognitiven Grenzen. Und auch wenn Teile der Wirtschaft mit der Adaption noch zögerlich sind: Die KI-Landschaft selbst wächst nicht nur, sie explodiert wie ein Feuerwerk zu Silvester. Aber selbst die klügsten Köpfe, also die, die diese Technologien entwickeln und sich tagein, tagaus damit beschäftigen, liegen mit ihren Vorhersagen um den Faktor vier daneben.

Vier! Das ist so, als würde man versuchen, das Wetter in Berlin vorherzusagen: Man denkt, man weiß, wie es wird, aber tatsächlich weiß man es nie. 

Der ethische Imperativ

Künstliche Intelligenz und Maschinelles Lernen sind also Technologien, die eine kaum zu überschätzende Bedeutung haben werden. Das muss nun wirklich jeder irgendwann verstehen. Auch die 34 Prozent aus der erwähnten Deloitte-Studie, die glauben, dass die Bedeutung von KI gering oder sehr gering ist.

Mit großer Macht kommt aber auch große Verantwortung.

Wenn Entscheidungen von undurchschaubaren Algorithmen getroffen werden, untergräbt dies die Idee der Rechenschaftspflicht.

Das ist nicht nur eine einprägsame Phrase, sondern ein ethischer Imperativ. Die damit verbundenen Überlegungen im Zusammenhang mit KI und ML dürfen nicht nur Fußnoten in der großen Erzählung des technologischen Fortschritts und in Unternehmens-Whitepapern sein; sie müssen die Grundlage sein, auf der dieser technologische Fortschritt aufgebaut wird.

In den Medien lesen wir immer häufiger vor allem von dem Potenzial der KI, bestehende soziale Ungleichheiten aufrechtzuerhalten oder sogar zu verschärfen. Algorithmen, die auf voreingenommene Daten trainiert wurden, werden sehr wahrscheinlich zu voreingenommenen Ergebnissen führen.

Das ist nicht nur ein technisches Problem, sondern auch ein ethisches. Es wirft Fragen zu Diskriminierung, Fairness und sozialer Gerechtigkeit auf. Wenn Gesichtserkennungssysteme beispielsweise hauptsächlich anhand von Daten weißer Menschen trainiert werden, werden sie Schwierigkeiten haben, Menschen anderer Ethnien korrekt zu identifizieren. Dies kann zu falschen Anschuldigungen oder Diskriminierung führen.

KI-Systeme, die in der Personalabteilung eingesetzt werden, könnten Geschlechterstereotype verstärken, wenn sie auf Daten trainiert werden, die eine ungleiche Verteilung von Männern und Frauen in bestimmten Berufen zeigen. Adaptive Lernsysteme könnten Schülerinnen und Schüler aus benachteiligten Verhältnissen weiter benachteiligen, wenn sie nicht für die Vielfalt der Lernbedürfnisse ausgelegt sind.

Die ethischen Fragen rund um KI sind weitreichend und komplex. Sie erfordern sorgfältige Überlegung und Diskussion.

Eines der drängendsten ethischen Probleme: die „Black Box“ vieler KI-Algorithmen. Wenn Entscheidungen von undurchschaubaren Algorithmen getroffen werden, untergräbt dies die Idee der Rechenschaftspflicht. Wie können wir eine Entscheidung anfechten, wenn wir nicht wissen, wie sie zustande gekommen ist? Transparenz ist nicht nur ein Nice-to-have, sondern ein Must-have. Ohne sie riskieren wir, Systeme zu schaffen, die nicht nur unverständlich, sondern auch ungerecht sind.

Der Workday-Ansatz für ethische KI

Es steht viel auf dem Spiel. Künstliche Intelligenz und Maschinelles Lernen haben das Potenzial, die Zukunft der Arbeit in einer Weise neu zu definieren, wie wir es seit der Industriellen Revolution nicht mehr erlebt haben. Allerdings nur dann, wenn die Technologie auch wirklich in den Unternehmen adaptiert wird.

Aber um es klar zu sagen: Dabei geht es nicht nur um technologische Fähigkeiten, sondern auch um ethische Verantwortung. Bei Workday sind wir nicht nur passive Beobachter dieses Wandels, sondern aktive Teilnehmer, die sich dafür einsetzen, dass KI und ML zum Wohle der Allgemeinheit eingesetzt werden – sowohl innerhalb unserer Plattform als auch weltweit.

Unser Engagement für verantwortungsvolle KI ist nicht nur ein Firmenslogan, sondern ein tief verwurzelter Teil unserer DNA. Unsere Kunden vertrauen uns ihre sensiblen Daten an, und das nehmen wir nicht auf die leichte Schulter. Wir verpflichten uns, Innovationen im Einklang mit unseren Grundwerten zu entwickeln, und legen Wert auf ein menschenzentriertes Design und sinnvolle Schutzmaßnahmen.

Es geht nicht nur darum, Geschäfte zu machen, sondern darum, Geschäfte richtig zu machen. Deswegen dienen uns unsere ethischen KI- und ML-Prinzipien, die wir schon 2019 eingeführt haben, als Guidance bei allen Produktentscheidungen, die KI und ML betreffen. Diese Grundsätze werden durch unser Responsible AI Governance-Programm umgesetzt, das einen Rahmen für ethische Entscheidungen bietet. Dieses Programm ist kein statisches Dokument, sondern eine lebendige, atmende Initiative, die sich weiterentwickelt, während wir weiter lernen und wachsen.

Datenschutz und -sicherheit stehen dabei an erster Stelle. Wir halten uns an die Grundsätze des Privacy by Design und achten sehr genau auf die Qualität der Daten, die wir für unsere Modelle nutzen. Darüber hinaus wenden wir ein risikobasiertes Prüfverfahren an, um potenziell risikoreiche KI-Anwendungen zu bewerten, insbesondere solche, die ganz direkt Einfluss auf Menschen haben können, nämlich wenn es um ihre Arbeit geht: also bei Einstellungen, Beförderungen oder der Entwicklung von Fähigkeiten.

Wir bei Workday haben ein engagiertes Team von Sozial- und Datenwissenschaftlern, die als ethische „Aufpasser“ für unsere KI- und ML-Technologien im Einsatz sind. Das ist kein Nebenjob für sie, sondern ihre Hauptaufgabe. Sie arbeiten Hand in Hand mit unserem Responsible AI Advisory Board, einem Gremium von Führungskräften aus dem gesamten Unternehmen, um ethische Probleme zu lösen, die wie unerwartete Softwarefehler auftauchen können.

Hochriskante Anwendungen? Dafür haben wir ein Regelwerk.

Unser verantwortungsbewusstes KI-Team entwickelt strenge Prüf- und Abmilderungsprotokolle schneller, als du „Maschinelles Lernen“ sagen kannst. Wir bieten zudem einen kristallklaren Einblick in unsere KI-Modelle – komplett mit einer Dokumentation, die alles von A bis Z abdeckt: Aufbau, Betrieb und Validierung. Denn Transparenz ist eines der Schlüsselkonzepte für den Aufbau ethischer und verantwortungsbewusster KI- und ML-Technologien.

Wenn wir in die Zukunft blicken, tauchen wir nicht nur unsere Zehen ins Wasser. Workday taucht ganz ein. Risikobewertungen werden genauso zum Standard gehören wie Code-Reviews, und sie werden früher im Innovationszyklus stattfinden. Außerdem arbeiten wir an umfassenden Compliance-Richtlinien und Schulungsprogrammen. Und warum? Um sicherzustellen, dass unser Team nicht nur redet, sondern auch handelt, wenn es um ethische KI geht.

Wenn wir also das nächste Mal von der neuesten KI-Magie begeistert sind, sollten wir uns einen Moment Zeit zum Nachdenken nehmen. Es geht nicht nur um das „Was“, sondern auch um das „Wie“. Und hier bei Workday ist das „Wie“ nicht verhandelbar. Ethische KI ist kein Nice-to-have, sie ist ein Must-have. Und das ist eine Verpflichtung, die wir nicht nur eingehen, sondern auch leben, Tag für Tag.

Veröffentlicht in:  Technologie und Innovationen

Weiteres Lesematerial