Ennemann: Die EU und nationale Regulierungsbehörden neigen dazu, überzuregulieren. Das Ziel ist oft, möglichst alle Risiken zu eliminieren. Doch in dem Maße, in dem man Risiken aus dem Portfolio entfernt, nimmt man auch gleichzeitig Chancen heraus. Daher ist es entscheidend, eine ausgewogene Balance zwischen Chancen und Risiken zu finden.
Ein weiterer wichtiger Punkt ist das Verständnis darüber, worüber wir sprechen, wenn wir über Künstliche Intelligenz (KI) reden. Es gibt viele Arten der Künstlichen Intelligenz, und deren Schweregrad muss klassifiziert werden. Der EU AI Act versucht dies teilweise zu regulieren, indem er je nach Klassifizierung unterschiedliche Maßnahmen für Unternehmen vorschreibt.
Neben der Einführung von Softwarelösungen wie Workday oder anderen KI-Lösungen ist es viel wichtiger, wie wir damit umgehen. Die Regulierung greift auch dort ein, wo wir als Endnutzer bestimmte Anwendungen verwenden und mit Daten umgehen. Ein passendes Beispiel ist die Nutzung von Dating-Apps. Obwohl wahrscheinlich niemand zugeben möchte, eine solche App genutzt zu haben [Gelächter], bieten sie ein wunderbares Beispiel: Wie gehe ich mit KI im Personalwesen um? Zunächst einmal geht es um das Matching und das Finden eines Profils. Das heißt: Passt der Bewerber zu meinem Unternehmen oder nicht? Hierbei handelt es sich im Grunde genommen auch um einen Bewerbungsprozess.
Ein weiteres großes Thema ist die Sicherheit, besonders im Umgang mit sensiblen Daten. Dies ist ein wesentlicher Bestandteil unserer DNA. Wir streben danach, immer besser zu werden und mehr mit KI zu erreichen. Doch genau bei diesem "mehr machen" kommen wir wieder auf das Thema Regulierung zu sprechen. Organisationen müssen Prozesse etablieren, die bewerten können, ob sie bestimmte Anwendungen der KI umsetzen dürfen und was dafür berücksichtigt werden muss.
Das, was für uns im privaten Bereich selbstverständlich ist, muss auch im Unternehmenskontext zur Selbstverständlichkeit werden. Es geht darum, Chancen und Risiken in eine saubere Balance zu bringen und innerhalb eines rechtlichen Rahmens zu agieren.
Gadea: Das Schöne und auch das Herausfordernde ist, dass wir wirklich fachübergreifend am Tisch sitzen. Das bedeutet, es gibt viel Übersetzungsarbeit zu leisten, da ein Jurist den EU AI Act ganz anders betrachtet als jemand aus der Cyber-Security-Abteilung oder jemand, der KI aus der Business-Perspektive oder der Innovationsabteilung vorantreibt. Der eine versucht eher, die Gesetze zu verstehen, während der andere sich auf den genauen Wortlaut des EU AI Acts konzentriert. Dies ist besonders interessant, weil es genau um die Balance zwischen Innovation und Kontrolle geht.
In diesen interdisziplinären Sitzungen und Gremien, insbesondere in der KI-Governance, appellieren wir wirklich daran, fachübergreifende Teams zu schaffen, die dieses Thema vorantreiben. Dort werden Strukturen geschaffen und Ideen ausgetauscht, die genau diese Balance schaffen. Andernfalls läuft es entweder auf eine "Wild-West"-Mentalität hinaus, bei der einfach alles gemacht wird, ohne Rücksicht auf rechtliche oder betriebliche Vorgaben, oder es herrscht eine risikoaverse Einstellung, bei der so viele Prozesse und Strukturen geschaffen werden, dass niemand sich mehr traut, überhaupt zu experimentieren.
Es ist entscheidend, diesen Austausch zu moderieren und Übersetzungsarbeit zu leisten, um eine ausgewogene Herangehensweise zu finden. Wir sehen bereits eine Offenheit gegenüber KI, vor allem durch die Entwicklungen wie ChatGPT. Jeder erkennt langsam die Bedeutung dieser Technologien. Es ist nur eine Frage der Zeit, bis wir wettbewerbsfähig bleiben müssen. Aber gleichzeitig müssen wir auch herausfinden, wie wir KI aus einer Unternehmensperspektive überhaupt steuern können.
Ger: Alles, was gesagt worden ist, ist absolut richtig. Wir müssen das Thema ernst nehmen, weil es am Ende des Tages - so hart es klingt - auch um Geld geht. Wenn Unternehmen Gesetze brechen, müssen sie die Tasche aufmachen, und das will niemand. Diese Angst ist berechtigt, weshalb es wichtig ist, das Thema ernst zu nehmen.
Auf der anderen Seite dürfen wir uns nicht selbst das Bein stellen, indem wir uns in der Regulatorik verstecken. In Deutschland haben wir eine Null-Fehler-Kultur, in der alles perfekt sein muss. Das hat uns im Kontext der digitalen Transformation in den letzten fünfzehn, zwanzig Jahren nicht unbedingt gut getan. Die gleiche Herausforderung sehen wir nun bei der Künstlichen Intelligenz (KI). Es geht darum, gerade auf Mitarbeiterebene, experimentieren zu dürfen.
Wenn Mitarbeiter das Gefühl haben, dass sie etwas falsch machen könnten und ständig mit Regulatorik konfrontiert werden - beispielsweise durch zwanzig Seiten lange E-Mails, die erklären, was alles nicht erlaubt ist - werden sie kaum anfangen zu experimentieren oder Spaß daran haben, Werte für das Unternehmen zu schaffen. Das ist kontraproduktiv.
Deshalb braucht es eine Balance. Wir müssen klar formulieren und kommunizieren: Wenn Fehler passieren, wird niemandem bestraft. Es muss Unterstützung von der regulatorischen Seite geben, die aufzeigt, wann es kritisch wird und wann man sich Unterstützung suchen sollte. Gleichzeitig müssen wir ermutigen und zeigen, dass es sicher ist, Dinge auszuprobieren.
Es ist wichtig, einen sicheren Rahmen zu bieten, damit Mitarbeiter nicht gezwungen sind, private Accounts zu nutzen oder andere unsichere Wege zu gehen. Empowerment bedeutet, den Leuten Mut zu machen, ihnen die notwendigen Werkzeuge an die Hand zu geben und sicherzustellen, dass sie innerhalb eines legalen und ethischen Rahmens arbeiten können.
Lesen Sie jetzt, wie Sie die KI-Vertrauendslücke schließen können.