Podcast: KI-(R)evolution – Jenseits des Hypes zur nachhaltigen Wertschöpfung

In unserer neuesten Folge des Workday Podcast DACH sprechen wir über die transformative Kraft der Künstlichen Intelligenz (KI) in der Unternehmenswelt.  

 

Podcast: KI-(R)evolution – Jenseits des Hypes zur nachhaltigen Wertschöpfung

Was neu ist: Künstliche Intelligenz (KI) durchläuft den Hype-Zyklus hin zur produktiven Anwendung in Unternehmen.

Warum es wichtig ist: Diese Entwicklung markiert den Beginn einer Ära, in der KI nicht nur als technologische Neuerung, sondern als integraler Bestandteil der Unternehmensstrategie für langfristigen Erfolg gesehen wird.

In dieser Folge sprechen wir mit: 

  • Dominik Bösl, Professor an der HDBW im Fachbereich Informatik

  • Jens Rassloff, Chair of the Advisory Board, Coparion

  • Anja Zerbin, Expertin für Digital Culture & Besseres Miteinander // Moderatorin// Speakerin

und von Workday 

  • Chandler Morse, Vice President Corporate Affairs

  • Kathy Pham, Vice President AI & ML

Wir werden im Podcast unter anderem über folgende Themen sprechen:

  • Produktive Anwendung von KI: Unternehmen beginnen, KI über den Hype hinaus produktiv einzusetzen, um echte Probleme zu lösen und nachhaltigen Mehrwert zu schaffen.

  • Vertrauenslücke schließen: Die Herausforderung besteht darin, das Vertrauen in KI-Technologien aufzubauen, indem man transparent über Anwendungen informiert und deren Nutzen klar kommuniziert.

  • Kulturelle Integration: Die Integration von KI in die Unternehmenskultur erfordert einen partizipativen Ansatz, der alle Mitarbeitenden auf die Reise der digitalen Transformation mitnimmt.

  • Ethik und Verantwortung: Ein verantwortungsvoller Umgang mit KI berücksichtigt ethische Aspekte und fördert einen Diskurs über die gesellschaftlichen Auswirkungen der Technologie.

Links für weiterführende Informationen:

Die aktuelle Entwicklung der KI ist mehr als ein kurzlebiger Trend. Sie bietet die einzigartige Chance, Arbeitsweisen zu revolutionieren, Effizienz zu steigern und neue Wertschöpfungsketten zu erschließen. Entscheidend wird sein, wie Unternehmen diese Technologien verantwortungsvoll einsetzen und in ihre Unternehmenskultur integrieren, um neben dem wirtschaftlichen Erfolg auch einen positiven Beitrag für die Gesellschaft zu leisten.

Anja Fordon: [Musik] Künstliche Intelligenz ist zweifellos eine prägende Technologie unserer Zeit. Und sie ist gekommen um zu bleiben, sie wird nicht verschwinden. Wenn man die Berichterstattung verfolgt, wird darüber oft sehr extrem argumentiert. Entweder steht das Ende der Menschheit bevor oder KI wird alles für uns erledigen und wir werden glücklicher und gesünder sein und so weiter. Künstliche Intelligenz wird also alles auf den Kopf stellen, alles, alles! Oder? Oder ist das alles nur ein Hype, eine Blase, die bald platzen wird? Und überhaupt: Wie stellen wir sicher, dass diese Technologien ethisch und verantwortungsvoll eingesetzt werden? Wie balancieren wir Innovationen mit dem Schutz der Privatsphäre und der Sicherheit? Genau darum soll es in unserer heutigen Folge gehen. Es ist nämlich äußerst wichtig ein differenziertes und rationales Verständnis der Chancen und Risiken zu haben, ganz gleich in welchem Bereich Sie tätig sind. Und selbstverständlich ist es auch für Arbeitnehmende wichtig zu verstehen, wie man KI nutzen kann, denn es ist viel unwahrscheinlicher, dass wir unseren Job an eine KI verlieren, als dass wir ihn an einen anderen Menschen verlieren, der KI benutzen kann. Mein Name ist Anja Fordon und ich freue mich riesig, Sie heute wieder zum Workday Podcast DACH begrüßen zu dürfen. Wir werden heute darüber sprechen, ob wir gerade einen KI-Hype erleben beziehungsweise uns in einer Blase befinden, die bald platzen wird und was hinter dem Hype steht. Wir werden auch darüber sprechen, wie man zwischen echter Wertschöpfung und bloßem Hype in der KI-Branche unterscheiden kann und warum Unternehmen das ernst nehmen sollten. Außerdem werden wir darüber sprechen, wie Unternehmen es schaffen alle Mitarbeitenden auf die KI-Reise mitzunehmen. Partizipation ist ja ein super wichtiges Thema hier, denn sewas passiert eigentlich mit den Menschen, die nicht wollen? Drängen wir sie an den Rand der Gesellschaft? Also müssen wir fragen: "Wie können Unternehmen eine Kultur schaffen, die KI nicht nur akzeptiert, sondern auch ethisch korrekt und für sich auch sehr effektiv nutzen kann?", denn in vielen Unternehmen entsteht eine Vertrauenslücke im Hinblick auf Künstliche Intelligenz. Wir bei Workday nennen das den Trust Gap. Ich verlinke Ihnen in den Show Notes eine super aktuelle Workday-Studie dazu, "Closing the AI Trust Gap". Diese globale Studie zeigt, dass Unternehmensleitende und Mitarbeitende sich zwar einig sind, dass KI große Chancen für die Umgestaltung des Geschäfts bietet, dass es aber an Vertrauen mangelt, wenn es darum geht, dass KI verantwortungsvoll benutzt wird. Diese Diskrepanz zwischen den Erwartungen der Mitarbeitenden und den Zielen der Unternehmensführung kann potenziell problematisch sein. Wir werden deshalb in dieser Folge auch darüber sprechen, wie diese Vertrauenslücke identifiziert und geschlossen werden kann. Okay, los geht es! Erst einmal müssen wir natürlich klären: Ist KI nur ein Hype?

Bösl: KI war definitiv ein Hype. Das haben wir - glaube ich - alle mitbekommen, es war überall in den Medien, in jeder Sendung, im Internet, in der Arbeitswelt. Jeder CIO und C Exports und so weiter, es haben alle davon geredet. Ich glaube, wir sind da jetzt ein bisschen darüber, weil: Die ersten Unternehmen fangen an KI produktiv einzusetzen oder probieren es zumindest. Und wir kennen wahrscheinlich alle den Hype Cycle, also vom absoluten Hype geht es jetzt erst einmal in das Tal der Tränen und da wird es ein paar Enttäuschungen geben und man wird sich damit auseinandersetzen müssen. Man wird auch herausfinden: Nicht alle Technologien sind für alles gut. Aber es wird eben auch diese Success Cases geben und ich glaube, wir kommen jetzt dahin - ja, es wird ein bisschen dauern, beim einen länger, beim anderen weniger - aber wir kommen jetzt in die Phase der Produktivität und es wird sicherlich eine sehr interessante Auswirkung haben.

Fordon: Da haben Sie Dominik Bösl gehört. Er ist Professor an der HDBW im Fachbereich Informatik. Wir kommen also jetzt erst einmal ins Tal der Tränen, sagt Professor Bösl. Das klingt ja erst einmal traurig. Worauf kommt es denn an, wenn Unternehmen in die Phase der Produktivität kommen wollen?

Bösl: Ich glaube, es kommt ganz darauf an, ob du die Daten hast oder nicht. Also wenn die Daten vorhanden sind, auf denen man aufsetzen kann und wenn bestehende, heute funktionierende Technologien anwendbar sind, also zum Beispiel LLM's, Large Language Models oder neuronale Netze für Predictive Analytics und so weiter und du hast den Datenbestand, dann können Erfolge relativ schnell umgesetzt werden, weil da gibt es heute auch schon Show Cases und das kann man machen. Wenn man mit der Lösung Neuland betritt und so etwas noch niemand gemacht hat und man gar nicht weiß, ob die Technologie dafür passend ist, also eher quasi Technologieentwicklung, dann sind wir wahrscheinlich im Bereich drei bis fünf Jahre.

Fordon: Drei bis fünf Jahre, das ist tatsächlich doch eigentlich ein sehr überschaubarer Rahmen, anders gesagt: Das geht ja super schnell. Die Frage, die sich dann noch stellt, ist: Wie unterscheiden wir zwischen echter Wertschöpfung und einem Hype? Das habe ich Jens Rasloff gefragt. Er hat in den Bereichen Technologie, Unternehmensberatung und Wirtschaftsprüfung in unterschiedlichen Ländern gearbeitet, unter anderem in globalen Führungspositionen als langjähriger Senior-Partner bei KPMG.

Rasloff: Eine tolle Frage! Ich glaube, die kann man final in drei Jahren beantworten, weil da werden sich ganz, ganz viele abgemeldet haben. Wo passiert im Moment wirklich etwas? Ich glaube, wenn man wirklich echtes Core AI nimmt, also wirklich Basis-AI, dann spielt die Musik in den USA und in China. Da haben wir sicherlich auch als Europäer ein bisschen etwas verpasst, einmal wieder, 2.0 war bei Cloud auch schon der Fall. Und ich glaube nicht, dass es noch große Core AI-Entwicklungen hier geben wird, was die [Alpha?]-Leute machen, ist toll, aber am Ende des Tages geht es halt nicht um intelligente Menschen, die wir hier sicherlich genauso haben wie Amerikaner oder Chinesen, sondern es geht einfach nur um Geld. Und von den Investitionssummen, die im Moment gerade in den USA durch die großen Hyper Scaler im Wesentlichen in die AI fließen und was in China in die AI fließt, da sind wir weit davon weg. Ich glaube, wo wir hier eine echte Chance haben - und das ist auch durchaus AI at it's Best und es ist das, was es zum Leben bringt - sind die Use Cases, das heißt: Wie kann ich wirklich Dinge zum Leben bringen? Wie kann ich reale Probleme mit AI lösen? Und ich glaube, das ist auch der Punkt, wo sich dann die Spreu vom Weizen trennt. Im Moment ist man so ein bisschen so ganz viel mit dem Label-Automaten unterwegs und das sehen wir auch in den Businessplänen, wo ich sage: "Mh, den Laden kenne ich doch von vor einem Jahr. Da stand da noch nichts von AI daran." Aber es gibt natürlich auch Cases, die jetzt wirklich extrem intelligent ge-pivoted haben, die einfach sagen: "Wir hatten einen Use Case, der gut funktioniert hat und ich hatte aber einfach die Technologie nicht zur Verfügung und nutze jetzt AI on the Top of this Use Cases", und ich glaube, man kann es einfach an der Stelle sehr gut unterscheiden: Ist das Problem, das dieses Unternehmen löst, wirklich ein Problem? Und ist es dann ein Relabeling oder sind dort wirklich AI-Technologien? Oder ist es einfach nur eine bessere Analytics-Plattform oder ist es einfach nur Datenanalyse? Oder nutze ich wirklich AI, Machine Learning in der Technologie? Und da wird sich definitiv die Spreu vom Weizen trennen, aber da haben wir ganz, ganz, ganz tolle Unternehmen in Deutschland und in Zentraleuropa, die da auch eine große Rolle spielen werden.

Fordon: Okay, genau hinsehen und hinterfragen, ob KI als Label oder als Technologie genutzt wird. Sagen wir nun also, Unternehmen wollen nicht nur labeln, sondern wirklich nutzen und investieren in KI-Technologien: Wie können sie dann eigentlich erkennen, ob sich die Investition in KI-Lösungen auszahlen? Auf welche Anzeichen sollte man achten um zu entscheiden, ob der Einsatz sinnvoll war oder nicht?

Rasloff: Die Investitionen, die im AI-Bereich gemacht werden, die sind ja nicht erst seit gestern. Es ist ja so, ein ChatGPT und OpenAI ist ja nicht vom Himmel gefallen. Die Unternehmen investieren seit zehn, fünfzehn Jahren da herein und umso mehr ist es schlimm, dass wir wirklich in Europa einmal wieder den Zug an der Stelle ein Stückchen weit verpasst haben. Aber wir waren sicherlich alle überrascht von der Massivität, dass ChatGPT diesen Diskurs einfach nach vorne gebracht hat. Dabei darf man aber nicht vergessen, es war der beste Marketing Stun in der IT, den es je gegeben hat. Weil es war so, meine fünfundachtzigjährige Mutter hat mich gefragt und gesagt: "Ich habe heute Morgen im Morgenmagazin dieses ChatGPT gesehen, was ist denn das?" Eine breitere Audienz konnte man sich nicht schaffen und das hat sicherlich einen Diskurs gebracht, der auch nicht wieder weggehen wird. Ich glaube, wo wir nachhaltig eine Veränderung sehen werden, das bringt ChatGPT, das bringen die Copilot-Szenarios von Microsoft, das wird das bringen, das Google jetzt launched oder gelaunched hat, das werden auch diese ganzen Business Applikationen bringen, die wir sehen im Bereich der Administration, im Bereich der Verwaltung. Ich habe mir Nächte um die Ohren geschlagen als Consultant zehn Jahre einen Powerpoint schön zu machen. Das wird es in zwei, drei Jahren so nicht mehr geben. Ich glaube, was wir noch völlig unterbewerten im Moment und wo Deutschland einfach eine riesige Chance hat, ist, die Produktion wird seinen AI-Moment haben. Also wie kann ich heute wirklich im Manufactoring Prozesse darüber optimieren? Wie kann ich in der Steuerung von Fabriken AI nutzen, also was passiert wirklich im Factory Floor? Und da passiert gerade gigantisch viel, da gibt es ganz, ganz tolle Unternehmen aus Deutschland. Und dann haben wir natürlich diesen gesamten Bereich Health Care-Forschung, medizinische Forschung, wo einfach eine Menge passieren wird. Das wird auch alles nicht  mehr weggehen. Was weggehen wird, sind jetzt die Leute, wo AI unter den CIO's dann teilweise - das muss ich auch sagen - so ein bisschen Golfplatz-Thema ist, nach dem Motto "Wir hämmern jetzt irgendeine ChatGPT-Lösung auf irgendetwas darauf", wo man sagt: "Na ja, hilft die wirklich oder macht sie es nur anders als wir es im Moment schon haben, aber eigentlich nicht besser?". Aber ich glaube, das ist wie mit jeder neuen Technologie so und es gab einen schönes Zitat von einem Microsoft-Kollegen, der gesagt hat: "Wir sind mit AI jetzt eigentlich an dem Status, wo wir mit dem Internet waren, als wir HTML definiert hatten. Wir haben einen Status, wir haben einen Stand, wir haben einen Stand der Entwicklung, der wird sich in der Basis auch nicht mehr verändern, der wird sich optimieren. Aber eigentlich haben wir ein leeres Internet." Und ich glaube, das ist für mich und das war für mich auch ein Punkt, weswegen ich gesagt habe nach fünfundzwanzig Jahren Big Four: "Ich mache jetzt noch einmal etwas anderes", dass wir jetzt - glaube ich - noch einmal in eine Gründermöglichkeit hereinkommen und auch in Deutschland wirtschaftlich in eine Möglichkeit hereinkommen, wie wir sie gesehen haben, als irgendwer einmal gesagt hat: "Wir haben das Internet angeschaltet."

Fordon: Wir haben also Künstliche Intelligenz angeschaltet, doch wenn die Menschen der Technologie nicht vertrauen, dann werden sie sie nicht nutzen. Die faszinierende Entwicklung von KI-Technologien, wie wir sie bei ChatGPT und anderen bahnbrechenden Anwendungen sehen, öffnet uns zwar sozusagen die Augen für das enorme Potenzial, das in dieser Technologie steckt, es ist dabei aber unbestreitbar, dass diese technologische Revolution auch wichtige Fragen aufwirft, insbesondere im Hinblick auf die Unternehmenskultur. Wie integrieren wir diese fortschrittlichen Technologien in unsere tägliche Arbeit ohne dabei den menschlichen Aspekt zu vernachlässigen? Wie schaffen wir es, dass KI nicht nur ein Werkzeug bleibt, sondern akzeptierter Teil der Arbeitskultur wird? Das habe ich Anja Zerbin, sie ist Expertin für digitale Kultur, Moderatorin und Speakerin.

Zerbin:  Dafür gibt es jetzt keine generelle Blumengießer-Antwort. Wenn es die geben würde, hätten wir die alle und wir wären in einem ethischen siebten Himmel, unternehmerisch auch noch. Jedes Unternehmen muss für sich selbst herausfinden, welche Kultur, A, im Unternehmen gerade vorherrscht und wie diese Kultur, wenn sie nicht KI-driven ist, dorthin vielleicht noch dahin entwickelt werden kann. Grundsätzlich gilt für alles, was ein Unternehmen in seiner Kultur vielleicht verändern will, dass es erst einmal ein Bewusstsein darüber schaffen muss, wie die Situation gerade ist, also was sind die Störer? Oder was sind die Treiber in dieser Kultur? Zweitens muss es die Notwendigkeit schaffen sich mit diesem Thema auseinanderzusetzen. KI ist ein sehr abstraktes Thema auf der einen Seite, auf der anderen Seite ein sehr, sehr konkretes Thema, mit dem wir alle in unserem täglichen Leben und Erleben völlig d'accord sind. Und der dritte Punkt ist, dass wir oder dass die Unternehmen einen Rahmen schaffen müssen, in dem die Möglichkeiten von KI erlebbar und erfahrbar sind. Und dieser Rahmen, um KI erlebbar und erfahrbar zu machen, ist natürlich wiederum sehr, sehr abhängig von dem Kontext des Unternehmens. Also welchen Teil der KI will das Unternehmen denn oder ist für die Mitarbeitenden wichtig und für das Unternehmen wichtig? Wie kann ich die erlebbar machen? Wie schaffen die Mitarbeiter einen Zugang dazu? Und wie schaffe ich auch die psychologische Sicherheit, dass die Mitarbeitenden diese KI eben ausprobieren können, ohne sich selbst dabei in einen Raum zu bringen, in dem sie sich entweder überfordert fühlen oder das Gefühl haben, sie verstehen es vielleicht nicht oder das Gefühl haben: "Das bringt doch hier alles nichts". Dann, was das Unternehmen machen muss, es muss im Prinzip mit diesem erfahrbaren Raum immer nur zwei kleine Hürden überspringen, und das erste ist: Ich muss meinen Mitarbeitenden verständlich machen, wie diese KI funktioniert. Das heißt nicht, dass ich bis in das Unterste von dem Code muss, sondern dass sie überhaupt mitkriegen, wofür, womit oder wie diese KI ihnen das Leben leichter machen kann. Und der zweite Punkt ist, die Mitarbeitenden müssen mitkriegen, was der Vorteil daraus für sie ist, also dass ihr Job tatsächlich entweder schneller gemacht ist oder einfacher gemacht ist oder dass sie ihren Kolleginnen gegenüber einfach auch cooler wirken oder den anderen Bereichen gegenüber, weil sie jetzt eben ein KI-Tool nutzen. So, das sind eben diese drei Dinge: Bewusstsein schaffen, damit auseinandersetzen, warum ich überhaupt einen Blick auf dieses Thema werfen muss und dann eben erlebbar und erfahrbar machen.

Fordon: Was Anja Zerbin hier über Kultur innerhalb von Unternehmen, gerade im Kontext der Künstlichen Intelligenz sagt, führt uns zu einer grundlegenden Fragestellung, die weit über die Grenzen einzelner Organisationen hinausgeht. Wie formt und beeinflusst KI unsere gesamte Gesellschaft? Denn wenn wir über KI sprechen, sprechen wir ja nicht nur über technologische Fortschritte und deren Implementierung in Unternehmensstrukturen, sondern eben auch über eine tiefgreifende Veränderung in unserem Verständnis von Technologie und deren Rolle in unserem täglichen Leben. Da müssen wir dann auch über Verantwortung reden. Es geht in dieser ganzen Debatte ja unbedingt auch darum einen verantwortungsvollen, partizipativen Dialog darüber zu führen, wie diese Technologien unsere Gesellschaft prägen und verändern. Dabei spielen nicht nur die Erfinder*innen und Entwickler*innen eine Rolle, sondern wir alle als Nutzer und Gestalter dieser neuen Realität. Wie wir diese Verantwortung wahrnehmen und wie wir den Umgang mit diesen neuen Technologien gestalten, wird entscheidend sein für die Zukunft unserer Gesellschaft. Aber wer trägt denn jetzt eigentlich die Verantwortung? Ist es wirklich jeder einzelne für sich oder sind es eben vor allen Dingen die großen Organisationen und natürlich auch Gesetzgeber? Dominik Bösl hat sich schon viel mit dieser Frage beschäftigt.

Bösl: Ich würde mich gar nicht entscheiden wollen, wer mehr Verantwortung trägt. Ich glaube, das Wichtige ist, wir alle tragen Verantwortung und zwar alle Stakeholder. Also ich als Konsument oder als Betroffener habe eine Hol-Schuld. Ich muss mir Informationen holen und ich muss mich mit den Themen auseinandersetzen, weil unreflektiert jetzt einfach zu sagen: "Das will ich nicht, weiß ich nicht, kann ich nicht, brauche ich nicht". Das ist - glaube ich - nicht zielführend, das ist keine gute Einstellung für irgendetwas. Es ist aber auch nicht nur Einstellung und Verantwortung derer, die sich mit Technologie auseinandersetzen und die Technologie entwickeln, erforschen und bauen, wobei ich mir da sehr wünschen würde, um eben einen partizipativen Technologie-Dialog zu ermöglichen, dass Unternehmen, Forschungsinstitute und so weiter verpflichtet würden technologieverständlich zu erklären. Und interessanterweise vom Gesetzgeber und von der regulativen Seite der ganzen Geschichte, da würde ich mir sogar das Umgekehrte wünschen, weil gerade in Deutschland neigen wir immer zur Überregulierung und übrigens in Europa - glaube ich - auch. Also wir haben alle vom AI Egg gehört und erstmal ist es so, wir verbieten einmal, was wir nicht kennen. Ich glaube, wir sollten enablen. Wir müssen Innovation sicherstellen und die muss möglich sein, ohne allzuviel am Anfang zu verbieten und da gibt es andere Regulierungsmechanismen, Soft Regulation, Standardisierung, Zertifizierung und da braucht es nicht immer gleich Gesetze am Anfang.

Fordon: Die Verantwortung liegt also nicht nur bei den Entwickler*innen und Anwender*innen, sondern bei uns allen. Jeder einzelne, jede Organisation trägt einen Teil dieser Verantwortung. Wir stehen vor der Herausforderung, einerseits innovative und fortschrittliche Technologien zu fördern und andererseits sicherzustellen, dass niemand von diesem Fortschritt ausgeschlossen wird. Wie wir diesen Balanceakt meistern können, ist eine der zentralen Fragen unserer Zeit. Es geht nicht nur um den Zugang zu Technologien, sondern eben auch um die Fähigkeit und Bereitschaft diese zu nutzen und zu verstehen. Dies führt uns zur nächsten Frage: Welche ethischen Konsequenzen ergeben sich daraus, wenn Menschen sich bewusst entscheiden, nicht am technologischen Fortschritt teilzunehmen? Welche Auswirkungen hat das auf unser gesellschaftliches und berufliches Leben? Dazu noch einmal Dominik Bösl.

Bösl: Ja, natürlich hat das Auswirkungen, wenn ich am technischen Fortschritt nicht teilnehme. Ich würde aber differenzieren. Wenn ich nicht möchte, dann ist es meine freie Entscheidung. Da müssen wir uns als Gesellschaft nur überlegen: 'Wie gehen wir mit solchen Fällen um?' Also ist es überhaupt noch möglich an einem gesellschaftlichen Leben, an einem Arbeitsleben teilzunehmen und sich nicht mit Technologie auseinanderzusetzen? Also es fängt doch schon da an, du kannst heute keinen Reisepass mehr beantragen ohne online einen Termin auf deinem Smartphone zu vereinbaren. Was machst du also, wenn du kein Smartphone hast oder möchtest? Aber das Wollen ist eine andere Geschichte als das "nicht können". Tatsächlich glaube ich, nicht können ist ein kleineres Problem, weil Menschen, die nicht können, kann man immer unterstützen, man kann helfen, man kann die Einstiegshürde senken, man kann unterstützende Technologien verwenden oder man kann zur Not einfach schulen und Skillaufbau betreiben. Also das macht mir weniger Sorgen, sondern die Frage ist: "Was passiert mit Menschen, die nicht wollen? Drängen wir die an den Rand der Ges: "Heyellschaft und schließen wir sie vielleicht sogar von Partizipation aus?

Fordon: In jedem Unternehmen gibt es, wie in der Gesellschaft auch, ein breites Spektrum von Meinungen, auch zur Technologie, von begeisterten Befürwortern bis hin zu Skeptikern und Gegnern. Die große Frage, die sich hier stellt, ist: Wie kann ein Unternehmen diesen vielfältigen Ansichten gerecht werden und sicherstellen, dass alle Mitarbeitenden auf dem Weg der technologischen Transformation mitgenommen werden? Ist es manchmal notwendig harte Entscheidungen zu treffen und diejenigen, die nicht mitgehen wollen, aus dem Prozess auszuschließen? Oder gibt es Wege, alle in den Prozess zu integrieren und gemeinsam voranzuschreiten? Diese Herausforderung ist entscheidend für das Gelingen der Digitalen Transformation, oder?

Bösl: Wie können Unternehmen alle mitnehmen? Ich glaube, erstens einmal ist es ein längerer Transormationsprozess und der wird einige vorher betreffen und andere später. Also es betrifft Menschen in der Technologieentwicklung, die Technologie bauen, die Technologie treiben oder evaluieren, natürlich früher als jemand, der vielleicht in der Verwaltung arbeitet und erst einmal gar nicht mit den Tools zu tun hat. Nichtsdestotrotz, ich glaube, es gibt drei, vier ganz grundlegende Dinge also das erste ist: Ausprobieren der Technologie erlauben und sogar erwünscht machen, also sagen: "Hey, jeder, der will, mach doch einmal! Probiere es doch einmal aus!", Freiräume schaffen, Hackathons veranstalten, Technologie zugänglich machen, nicht sofort reglementieren und bestrafen, aber umgekehrt auch nicht erzwingen, sondern tatsächlich wirklich sagen: "Hey, pass auf, wer will, der macht." Und wenn man dann sieht, dass es da Begeisterung in einer gewissen Guppe gibt, dann wird die Gruppe von alleine wahrscheinlich größer. Und insofern, mit positiver Incentivierung arbeiten, Spaß dabei wecken, den Mehrwert aufzeigen, Dinge erlauben, vielleicht Potenziale belohnen, Best Practises auszeichnen, also: "Guck einmal, du hast etwas Tolles geamcht! Hey, super, jetzt rollen wir es ins ganze Unternehmen aus und übrigens, das war Peters oder Julias Verdienst! Vielen Dank! Hey, super! Wollt ihr dafür verantwortlich sein vielleicht?", und damit einfach Momentum erzeugen und die Leute mitnehmen. Es wird immer Menschen geben, die sich dem widersetzen oder die das nicht wollen. Allerdings ist die Frage: Muss ich damit hart umgehen? Also es gibt da auch Fälle - ja, was weiß ich, der Kollege, der ein Jahr vor dem Frühruhestand steht. Muss ich den im letzten Jahr damit noch quälen oder akzeptiere ich einfach, dass er das oder diejenige das nicht einsetzen möchte? Ja, es wird immer Fälle geben, wo man sicherlich auch Personalentscheidungen treffen muss, aber das wäre für mich das letzte und das kleinste Mittel, das ich wählen würde, erst wenn die anderen versagt haben.

Fordon: Diese Ansätze zur Technologie-Integration in Unternehmen sind super wichtig, also Ansätze, in denen das Experimentieren gefördert und individuelle Errungenschaften gewürdigt werden. Und dabei stellt sich dann unweigerlich die Frage nach der breiteren Anwendbarkeit solcher Konzepte. Wie können diese Innovationen in unterschiedlichen Arbeitsumgebungen funktionieren? Technologie sollte so gestaltet werden, dass sie den Arbeitsalltag bereichert und gleichzeitig auf die Bedürfnisse und Fähigkeiten der Mitarbeitenden eingeht. Das, was war und das, was kommt, das muss eben zusammengehen. Können wir aus der Vergangenheit, also aus einer analogen Arbeitswelt lernen und das nutzen, um unsere Zukunft mit KI und ML zu gestalten?

Fordon: Wir haben gerade Kathy Pham gehört. Sie ist Vize President AI and ML bei Workday. Ich fasse kurz zusammen, was sie gesagt hat. Seit langem versuchen Menschen, Mitarbeiterführung und Finanzmanagement zu optimieren, mit Technologie, insbesondere KI und ML, eröffnen sich neue Möglichkeiten. Sie kann unsere Arbeit verstärken und reale Probleme lösen. Wichtig ist, die Geschichte dieser Prozesse zu verstehen und Technologie darauf aufzubauen. Geschäftsführer sollten überlegen, wie KI die Produktivität steigert und effiziente Lösungen für konkrete Herausforderungen bieten kann. Dies wird in den kommenden Jahren entscheidend für den Erfolg sein. Doch bei all dieser technologischen Entwicklung stehen wir vor einer entscheidenden Weggabelung. Einerseits bietet die KI unglaubliche Möglichkeiten zur Effizienzsteigerung und Innovation in nahezu jedem Sektor. Andererseits müssen wir vorsichtig navigieren, um die ethischen, gesellschaftlichen und wirtschaftlichen Auswirkungen zu berücksichtigen, die mit solchen Innovationen einhergehen. Hier betreten wir ein Terrain, das nicht nur technische Expertise, sondern auch ein tiefes Verständnis von menschlichem Verhalten und gesellschaftlichen Bedürfnissen erfordert. Die Herausforderung besteht darin Technologien wie KI und ML so zu gestalten, dass sie unsere Arbeitswelt nicht nur revolutionieren, sondern auch die Werte und Prinzipien unserer Gesellschaft widerspiegeln. Die Frage ist nicht nur, wie wir Technologien nutzen können, um Probleme zu lösen, sondern auch, wie wir sicherstellen, dass diese Technologien in Harmonie mit ethischen Richtlinien und gesellschaftlichen Zielen arbeiten. Dies führt uns zu einem weiteren wichtigen Aspekt, der Rolle von Regierungen und Organisationen bei der Gestaltung des Rahmens für die Nutzung und Entwicklung dieser Technologien.


Fordon: Kathy sagt hier, dass es viele Möglichkeiten für Unternehmen gibt, mit Regierngen bei der Entwicklung von Vorschriften und Gesetzen zusammenzuarbeiten. Sie sagt auch, dass eigene Regulierung und Gouvernance wichtig sind und dass Be KI ispiele zeigen, dass staatliche Regulierungen in Bereichen wie Datenschutz und Sicherheit Unternehmen dazu veranlasst haben ihre Technologien und Produkte zu verbessern. Diese Regulierungen haben eben zu besseren Nutzererfahrungen und fortschrittlicheren Produkten geführt, als es vorher der Fall war. Was Kathy Pham hier gesagt hat, zeigt, dass wir in der dynamischen Beziehung zwischen Technologie und Politik vor Herausforderungen stehen Innovationen Raum zu geben, während wir gleichzeitig deren Auswirkungen verantwortungsbewusst steuern müssen. Der Schlüssel liegt im Dialog und im Austausch zwischen Unternehmen, Regierungen und der Gesellschaft. Ein ausgewogenes Verhältnis von Regulierung und Freiraum für technologische Entwicklungen ist entscheidend. Diese Balance zu finden, erfordert ein tiefgreifendes Verständnis für die technologischen Potenziale und deren sozialen Konsequenzen. Es geht darum Technologien so zu gestalten, dass sie dem Wohl der Gesellschaft dienen und gleichzeitig Innovation fördern. Die Kunst liegt also in einer klugen Regulierung, die positive Entwicklungen in Technologiebereichen wie der Künstlichen Intelligenz unterstützt. Wir bei Workday nehmen diese Verantwortung sehr ernst, wie auch Chandler Morse, Vize Präsident Corporate Affairs bei Workday betont.

Fordon: Chandler Morse erzählt hier, dass Politik oft hinter Geschäftspraktiken zurückbleibt, besonders bei KI-Anwendungen im HR-Bereich. Er sagt weiter, dass die verantwortungsvolle Implementierung von KI ein zentrales Gesprächsthema mit Workdays Kunden ist. Workday hat, so Chandler, mt dem Future of Privacy Forum zusamengearbeitet, um Best Practises bei der KI-Nutzung in HR zu identifizieren, insbesondere bezüglich Transparenz, [Unverständlich]-Minderung und Datenschutz. Diese Praktiken, die von führenden Unternehmen wie LinkedIn und ADP und Indeed unterstützt werden, bietet Workday sozusagen einen Leitfaden, nicht nur für politische Entscheidungsträger*innen, sondern auch für alle, die diese Technologien vrantwortungsvoll einsetzen möchten, so Chandler. [Musik] Damit enden wir die heutige Folge. Wir haben gesehen, wie komplex das Zusammenspiel von Technologie, Politik, Unternehmen und Gesellschaft ist. Die Gespräche, die wir führen und die Entscheidungen, die wir treffen, formen die Zukunft unserer digitalen Welt. Es ist unsere gemeinsame Verantwortung diese Zukunft verantwortungsbewusst und mit Weitblick zu gestalten. Ich danke Ihen für Ihre Ohren und hoffe, Sie auch in der nächsten Folge wieder begrüßen zu dürfen. Bis dahin: Passen Sie gut auf sich auf und haben Sie einen schönen Workday! [Musik]

Weiteres Lesematerial