Künstliche Intelligenz in Unternehmen: Balance zwischen Potenzial und Verantwortung

KI gilt als Game-Changer für Unternehmen, aber ohne das Vertrauen der Mitarbeitenden in die Fähigkeiten und den Einsatz der KI könnten Transformationsbemühungen ins Stocken geraten.

Künstliche Intelligenz in Unternehmen: Balance zwischen Potenzial und Verantwortung

Die potenziellen Einsatzmöglichkeiten von künstlicher Intelligenz und generativer KI in Unternehmen haben in den letzten Monaten viel Aufmerksamkeit erregt. KI ist der Game-Changer für Unternehmen, aber wenn die Mitarbeitenden nicht darauf vertrauen, was die KI kann und wie sie eingesetzt wird, werden Transformationsbemühungen ins Stocken geraten. Deshalb ist es wichtig, auch die menschliche Seite der Gleichung zu berücksichtigen.

In diesem Video diskutieren wir, wie Unternehmen das Gleichgewicht zwischen Potenzial und verantwortungsvollem Einsatz von KI sicherstellen können. Wir betrachten, wie KI die Arbeitswelt verändert und welche praktischen Strategien zur Integration von KI angewendet werden können. Ein besonderer Fokus liegt auf den ethischen Überlegungen, die die Grundlage für eine verantwortungsbewusste Nutzung von KI schaffen.

In diesem Blogpost werden folgende Fragen beantwortet:

 

Hier geht es zur globalen Studie 2024: Die KI-Vertrauenslücke schließen

Um tiefer in diese Themen einzutauchen, haben wir auch eine hochkarätige Diskussionsrunde mit führenden Experten aus verschiedenen Branchen auf der Workday Elevate 2024 in Frankfurt organisiert. Isabel Gadea von Deloitte, Marc Ennemann von KPMG und Bora Ger von Capgemini teilen ihre Einsichten und Erfahrungen, um ein umfassendes Bild von verantwortungsvoller KI in der Praxis zu zeichnen. Im Folgenden lesen Sie das Transkript der Session (für Lesbarkeit redigiert). Moderiert hat Jens Löhmar, Workday CTO - Continental & DACH.

Jens Löhmar: Wir hören mit Sicherheit sehr viel von AI. Das ist ein sehr dominantes Thema, und das aus vielen verschiedenen Perspektiven. 

Deswegen freue ich mich umso mehr, heute ein wirklich kompetentes Panel hier zu haben: Isabel Gadea von Deloitte, Marc Ennemann von KPMG und Bora Ger von Capgemini. Gemeinsam wollen wir unsere Sichtweise erweitern. Was ist in der Praxis wirklich jenseits der großen Anbieter? Welche Themen werden diskutiert und bearbeitet? Insbesondere möchten wir das Thema "Verantwortungsvolle Künstliche Intelligenz" gemeinsam beleuchten. Isabel, kannst du uns einen kurzen Überblick geben, was du machst und was deine Leidenschaften im Bereich AI sind?

Isabel Gadea: Danke, dass ich hier sein darf. Bei Deloitte bin ich als Director im Bereich KI und Analytics tätig. Meine Leidenschaft liegt darin, Unternehmen dabei zu unterstützen, datengetriebene Entscheidungen zu treffen und innovative Lösungen zu entwickeln, die sowohl wirtschaftlichen Nutzen bringen als auch ethische Standards erfüllen. Ich glaube fest daran, dass verantwortungsvolle KI nicht nur eine ethische Notwendigkeit, sondern auch ein wirtschaftlicher Vorteil ist.

Marc Ennemann: Ich freue mich ebenfalls, hier zu sein. Bei KPMG leite ich den Bereich Technologieberatung mit einem starken Fokus auf künstliche Intelligenz und maschinelles Lernen. Meine Arbeit dreht sich darum, wie Unternehmen KI-Technologien auf sichere und verantwortungsvolle Weise implementieren können. Ich bin überzeugt, dass Transparenz und Vertrauen in KI-Systeme entscheidend sind, um die Akzeptanz und den Erfolg von KI-Initiativen zu gewährleisten.

Bora Ger: Danke, dass ich teilnehmen darf. Bei Capgemini arbeite ich als Chief Innovation Officer und beschäftige mich intensiv mit der Integration von KI in Geschäftsprozesse. Meine Passion ist es, sicherzustellen, dass KI-Lösungen nicht nur technisch robust, sondern auch sozial verantwortungsvoll sind. Wir müssen sicherstellen, dass KI nicht nur den Unternehmen, sondern auch der Gesellschaft als Ganzes zugutekommt.

Welche Möglichkeiten erschließen sich durch KI im Personalwesen? Wie sieht die Zukunft der Arbeit aus?

Ennemann: KI ist kein neues Thema. Der aktuelle Status Quo, den wir heute erreicht haben, konzentriert sich primär auf Large Language Models. Durch die Diskussionen rund um ChatGPT haben wir einen Reifegrad erreicht, der es ermöglicht, kommerzielle KI-Lösungen anzuwenden. Insbesondere im HR-Bereich können wir KI als Enabler nutzen und so andere Bereiche unterstützen.

Das bedeutet, wir werden effizientere und qualitativ hochwertigere Lösungen im Recruiting sehen, ebenso wie in der Begleitung von Karrierewegen. Zukünftig werden diese Modelle durch innovative Sprachmodelle ergänzt. Das Tippen wird durch Sprechen ersetzt, und wir werden viele Bilderkennungsthemen einbeziehen. Das bedeutet, wir können beispielsweise die Mimik während eines Bewerbungsgesprächs analysieren, um zu beurteilen, ob ein Mitarbeiter gut zu uns passt.

Ich finde es hochgradig spannend, was alles möglich sein wird im Bewerbungsprozess. Dieser Prozess ist kulturell durch jeden Fachbereich hindurch relevant. Wenn wir ein Assessment für einen Blue Collar Worker durchführen, müssen wir auch hier die Prozesse mit KI unterstützen können. Die Breite der Anwendungen zeigt, wie wir Technologien einsetzen können, um zentrale Impulse zu setzen, die im gesamten Unternehmen wirken.

Wie weit sind wir davon entfernt, KI als Führungskraft zu sehen, und was sind die Auswirkungen auf die Organisationsstruktur und -kultur?

Ennemann: Ja, ich glaube tatsächlich, KI wird das Management und die Managementfunktionen nicht ersetzen, aber sie wird sie ergänzen. In einem ersten Schritt wird sie als Copilot fungieren. Das bedeutet, dass ich mir schon heute viele Informationen von einer KI zusammenstellen lassen kann – sei es zur Gesprächsvorbereitung, zur Kundensituation oder beispielsweise zur Karriereentwicklung.

Besonders spannend finde ich die Fälle, in denen Führungskräfte in Assessment Centern gefragt wurden: 'Möchtest du lieber von einem Psychologen und Personaler oder von einer KI beurteilt werden?' Erstaunlicherweise haben viele geantwortet: 'Von der KI.' Die Begründung lautete: 'Die ist objektiv.' Hierbei spielen keine emotionalen Faktoren eine Rolle. Das heißt aber nicht, dass die KI zukünftig alleine die Personalentwicklung übernehmen soll. Sie kann jedoch ein wichtiges additives Element sein.

Wenn Psychologen und HR-Experten dabei sind und bestimmte Entscheidungsvorschläge der KI analysieren und bewerten, ist das ein Fortschritt. Sie können sich auf qualitative Themen konzentrieren, anstatt sich mit quantitativen Themen zu beschäftigen, die in den HR-Funktionen leider immer noch oft den Arbeitsalltag dominieren.

Ausgehend von Ihren Erfahrungen mit der Nutzung von KI zur Steigerung von Produktivität und Effizienz, wie könnte generative KI, wie 'Management GPT', die Entscheidungsfindung und Kreativität von Führungskräften in Rollen innerhalb traditioneller, langsamer ablaufender Prozesse verändern?

Ger: Der Begriff 'Management GPT' stammt übrigens nicht von mir, sondern von einigen schlauen Kollegen aus Italien, die verschiedene Experimente in diesem Bereich durchführen. Warum das wichtig ist? Wir diskutieren oft – wie du es auch angedeutet hast – über 'Mensch oder Maschine?' Doch das eigentliche, spannende Feld, in dem wir uns bewegen, ist 'Mensch mit Maschine'.

Im HR-Umfeld und im Personalwesen spielt das Thema 'Fairness' eine große Rolle. Es kann schnell zu einer Asynchronität kommen, wenn auf der unternehmerischen Seite KI-Tools eingesetzt werden, während der Bewerber oder die Bewerberin nicht nur von Psychologen, sondern auch von der KI analysiert wird. Das soll natürlich nicht passieren. Ziel ist, dass beide Seiten in der Lage sind, die Tools zu ihrem Vorteil zu nutzen.

Heutzutage stellt sich oft die Frage: 'Kommt die Bewerbung oder das Anschreiben von der Bewerberin selbst, oder hat eine KI mitgeschrieben?' Manchmal ist es offensichtlich, aber der Punkt ist: Es geht nicht darum, ob der Mensch durch die KI ersetzt wird, sondern darum, dass Menschen, die keine KI einsetzen, durch diejenigen ersetzt werden, die es tun. Das ist die große Herausforderung: zu verstehen, wie man KI richtig und gewinnbringend für sich und die Organisation einsetzen kann.

Was 'Management GPT' betrifft, geht es nicht darum, als Manager nur zu sagen: 'Wow, ich nutze das jetzt! Ich chatte damit ein bisschen und bekomme Ideen.' Es geht darum, einen strukturierten Prozess zu durchlaufen. Zum Beispiel haben wir getestet, was verantwortungsvolles Management bedeutet. Als Manager überprüft man mit der KI in einem strukturierten Prozess: 'Was sind meine Werte? Wie kann ich diese Werte in der Praxis leben? Was sind die KPI's, an denen ich meinen Erfolg messen kann?'

Wir haben festgestellt, dass KI uns dabei unterstützen kann, auch auf einer persönlichen Ebene zu reflektieren: 'Welche Dinge tun wir? Tun wir diese Dinge richtig und haben sie Impact?' Das Zusammenspiel von Mensch und Maschine ist der Kernpunkt. Hier liegt das spannende Momentum, nicht im bloßen Outsourcing oder Automatisieren von Aufgaben.

Wie wird die Einführung von KI-Mitarbeitenden die Dynamik von Teamarbeit und Kollaboration verändern, insbesondere in Umgebungen, in denen die Mitarbeitenden Zugang zu modernsten Innovationen haben, die Prozesse aber konservativ bleiben?

Ger: In Bezug auf den Umgang mit KI beobachten wir zwei grundsätzliche Ansätze bei Organisationen. Einige, wie die EU, setzen auf strikte Regulierung mit dem Motto: 'Ihr dürft das nicht nutzen! Wir haben Angst vor Datenlecks und ähnlichen Problemen.' Diese Ängste sind durchaus relevant, denn es gilt, sicherzustellen, dass keine unerwünschten Dinge passieren – darauf werden wir noch zu sprechen kommen. Doch ich glaube, es muss vor allem um Enablement gehen: 'Wie arbeite ich richtig mit so einer Engine? Wie kann ich sie für mich nutzbar machen?'

Ich denke, wir sind gut beraten, auch als Organisationen, die vielleicht etwas vorsichtiger und langsamer agieren, hier mehr Gas zu geben. Warum? Weil die Menschen es ohnehin tun werden. In einer Zeit, in der jeder ein Smartphone in die Hand nehmen und Microsoft Copilot aktivieren kann – der kostenlos und mit GPT vorverknüpft ist – nutzen sie diese Tools bereits für Produktivität und Effizienz. Gleichzeitig klopfen sie bei HR an und fragen: 'Dürfen wir diesen mühsamen Prozess effizienter gestalten?'

Hier zeigt sich schnell die Herausforderung: Der Druck wird von der Mitarbeiterebene kommen, und darauf müssen wir reagieren können. Natürlich gibt es unterschiedliche Wege, aber wir sind alle aufgefordert zu schauen: 'Wo sind die Möglichkeiten, dass wir einen gemeinsamen Nenner finden?' Es geht darum, Sicherheit und Regulatorik nicht zu vernachlässigen, aber gleichzeitig die Menschen ernst zu nehmen und schnell mitzunehmen. Denn am Ende des Tages tun wir den Kolleginnen und Kollegen keinen Gefallen, wenn wir die Geschwindigkeit herausnehmen – der Markt wartet nicht.

Was sind die wichtigsten Überlegungen, die Unternehmen im Hinblick auf verantwortungsvolle KI und Ethik anstellen müssen, um sicherzustellen, dass ihre KI-Implementierungen keine ethischen Grenzen überschreiten?

Gadea: Wir haben einige Umfragen durchgeführt, besonders unter Experten, die selbst mit Daten und KI arbeiten. Wir sprechen hier nicht von Standard-Mitarbeitern, die durch generative KI und Copilot das erste Mal damit in Berührung kommen. Wir fragten: 'Habt ihr ethische Bedenken bei der Einführung von KI, besonders generativer KI?' Achtzig Prozent antworteten mit 'Ja'. Doch nur zwanzig Prozent gaben an, dass ihre Organisation ein Rahmenwerk hat, um damit umzugehen und es zu steuern.

Genau hier setzen wir an und haben tiefer nachgeforscht: 'Was sind diese ethischen Bedenken?' Zunächst fragten wir nur, ob es Bedenken gibt, und dann untersuchten wir die Antworten genauer. Die Bedenken reichten von rechtlichen Themen wie Datenschutz und IP-Rechten über Cyber Security bis hin zu Fragen wie: 'Welchen Einfluss hat das auf die Arbeitswelt von morgen? Wie verändert sich meine Arbeit?' und 'Wie kann ich dem Output einer KI vertrauen, der ja entscheidungsrelevant ist? Wie kann ich die Qualität nachvollziehen?'

Wir haben diese Bedenken in drei Kategorien geclustert. Erstens: Konformität mit Gesetzen. Hier geht es darum, sicherzustellen, dass alles im Einklang mit den rechtlichen Vorgaben steht. Zweitens: Vertrauen in die Technologie. Kann die Technologie das leisten, was sie soll? Ist der Output qualitativ hochwertig? Das erfordert einen gewissen technologischen Reifegrad der Organisation. Drittens: Ethischer Einsatz der KI. Hier geht es darum, Grenzen zu definieren.

Führungskräfte fragen oft: 'Könnt ihr uns nicht einfach eine Do's und Don'ts-Liste geben? Meine Mitarbeiter fragen: "Darf ich das hier? Sollte ich dort KI einsetzen?"' 

Die Komplexität der KI liegt darin, dass wir keine intrinsische Vorstellung davon haben, was gutes Verhalten ist, wie in anderen Bereichen. Daher ist Befähigung so wichtig. Es braucht viel Kommunikation und Schulung, um die Mitarbeiter zu ermutigen, KI selbstbewusst zu nutzen.

Es geht nicht nur darum, die Risiken aufzuzeigen, sondern auch klar zu machen: 'Du kannst das nutzen. Du darfst experimentieren. Mach das selbstbewusst!' Dieses Bauchgefühl, das einige Dinge stoppt, ist oft unbegründet. Befähigung und Vertrauen in die Nutzung von KI sind entscheidend, um ihre Potenziale voll auszuschöpfen.

Was ist aus die größte regulatorische Herausforderung für KI am Arbeitsplatz. Und welche positiven Entwicklungen sehen Sie für die Integration von KI in die Arbeitswelt?

Ennemann: Die EU und nationale Regulierungsbehörden neigen dazu, überzuregulieren. Das Ziel ist oft, möglichst alle Risiken zu eliminieren. Doch in dem Maße, in dem man Risiken aus dem Portfolio entfernt, nimmt man auch gleichzeitig Chancen heraus. Daher ist es entscheidend, eine ausgewogene Balance zwischen Chancen und Risiken zu finden.

Ein weiterer wichtiger Punkt ist das Verständnis darüber, worüber wir sprechen, wenn wir über Künstliche Intelligenz (KI) reden. Es gibt viele Arten der Künstlichen Intelligenz, und deren Schweregrad muss klassifiziert werden. Der EU AI Act versucht dies teilweise zu regulieren, indem er je nach Klassifizierung unterschiedliche Maßnahmen für Unternehmen vorschreibt.

Neben der Einführung von Softwarelösungen wie Workday oder anderen KI-Lösungen ist es viel wichtiger, wie wir damit umgehen. Die Regulierung greift auch dort ein, wo wir als Endnutzer bestimmte Anwendungen verwenden und mit Daten umgehen. Ein passendes Beispiel ist die Nutzung von Dating-Apps. Obwohl wahrscheinlich niemand zugeben möchte, eine solche App genutzt zu haben [Gelächter], bieten sie ein wunderbares Beispiel: Wie gehe ich mit KI im Personalwesen um? Zunächst einmal geht es um das Matching und das Finden eines Profils. Das heißt: Passt der Bewerber zu meinem Unternehmen oder nicht? Hierbei handelt es sich im Grunde genommen auch um einen Bewerbungsprozess.

Ein weiteres großes Thema ist die Sicherheit, besonders im Umgang mit sensiblen Daten. Dies ist ein wesentlicher Bestandteil unserer DNA. Wir streben danach, immer besser zu werden und mehr mit KI zu erreichen. Doch genau bei diesem "mehr machen" kommen wir wieder auf das Thema Regulierung zu sprechen. Organisationen müssen Prozesse etablieren, die bewerten können, ob sie bestimmte Anwendungen der KI umsetzen dürfen und was dafür berücksichtigt werden muss.

Das, was für uns im privaten Bereich selbstverständlich ist, muss auch im Unternehmenskontext zur Selbstverständlichkeit werden. Es geht darum, Chancen und Risiken in eine saubere Balance zu bringen und innerhalb eines rechtlichen Rahmens zu agieren.

Gadea: Das Schöne und auch das Herausfordernde ist, dass wir wirklich fachübergreifend am Tisch sitzen. Das bedeutet, es gibt viel Übersetzungsarbeit zu leisten, da ein Jurist den EU AI Act ganz anders betrachtet als jemand aus der Cyber-Security-Abteilung oder jemand, der KI aus der Business-Perspektive oder der Innovationsabteilung vorantreibt. Der eine versucht eher, die Gesetze zu verstehen, während der andere sich auf den genauen Wortlaut des EU AI Acts konzentriert. Dies ist besonders interessant, weil es genau um die Balance zwischen Innovation und Kontrolle geht.

In diesen interdisziplinären Sitzungen und Gremien, insbesondere in der KI-Governance, appellieren wir wirklich daran, fachübergreifende Teams zu schaffen, die dieses Thema vorantreiben. Dort werden Strukturen geschaffen und Ideen ausgetauscht, die genau diese Balance schaffen. Andernfalls läuft es entweder auf eine "Wild-West"-Mentalität hinaus, bei der einfach alles gemacht wird, ohne Rücksicht auf rechtliche oder betriebliche Vorgaben, oder es herrscht eine risikoaverse Einstellung, bei der so viele Prozesse und Strukturen geschaffen werden, dass niemand sich mehr traut, überhaupt zu experimentieren.

Es ist entscheidend, diesen Austausch zu moderieren und Übersetzungsarbeit zu leisten, um eine ausgewogene Herangehensweise zu finden. Wir sehen bereits eine Offenheit gegenüber KI, vor allem durch die Entwicklungen wie ChatGPT. Jeder erkennt langsam die Bedeutung dieser Technologien. Es ist nur eine Frage der Zeit, bis wir wettbewerbsfähig bleiben müssen. Aber gleichzeitig müssen wir auch herausfinden, wie wir KI aus einer Unternehmensperspektive überhaupt steuern können.

Ger:  Alles, was gesagt worden ist, ist absolut richtig. Wir müssen das Thema ernst nehmen, weil es am Ende des Tages - so hart es klingt - auch um Geld geht. Wenn Unternehmen Gesetze brechen, müssen sie die Tasche aufmachen, und das will niemand. Diese Angst ist berechtigt, weshalb es wichtig ist, das Thema ernst zu nehmen.

Auf der anderen Seite dürfen wir uns nicht selbst das Bein stellen, indem wir uns in der Regulatorik verstecken. In Deutschland haben wir eine Null-Fehler-Kultur, in der alles perfekt sein muss. Das hat uns im Kontext der digitalen Transformation in den letzten fünfzehn, zwanzig Jahren nicht unbedingt gut getan. Die gleiche Herausforderung sehen wir nun bei der Künstlichen Intelligenz (KI). Es geht darum, gerade auf Mitarbeiterebene, experimentieren zu dürfen.

Wenn Mitarbeiter das Gefühl haben, dass sie etwas falsch machen könnten und ständig mit Regulatorik konfrontiert werden - beispielsweise durch zwanzig Seiten lange E-Mails, die erklären, was alles nicht erlaubt ist - werden sie kaum anfangen zu experimentieren oder Spaß daran haben, Werte für das Unternehmen zu schaffen. Das ist kontraproduktiv.

Deshalb braucht es eine Balance. Wir müssen klar formulieren und kommunizieren: Wenn Fehler passieren, wird niemandem bestraft. Es muss Unterstützung von der regulatorischen Seite geben, die aufzeigt, wann es kritisch wird und wann man sich Unterstützung suchen sollte. Gleichzeitig müssen wir ermutigen und zeigen, dass es sicher ist, Dinge auszuprobieren.

Es ist wichtig, einen sicheren Rahmen zu bieten, damit Mitarbeiter nicht gezwungen sind, private Accounts zu nutzen oder andere unsichere Wege zu gehen. Empowerment bedeutet, den Leuten Mut zu machen, ihnen die notwendigen Werkzeuge an die Hand zu geben und sicherzustellen, dass sie innerhalb eines legalen und ethischen Rahmens arbeiten können.

 

Lesen Sie jetzt, wie Sie die KI-Vertrauendslücke schließen können.

 

Weiteres Lesematerial