Unternehmenserfolg durch das Vertrauen in KI

Die genauen Anwendungsmöglichkeiten von KI sind noch nicht bekannt, aber Unternehmen sollten den Schutz der Privatsphäre, menschliches Urteilsvermögen und einfachere Systeme berücksichtigen, um den erfolgreichen Einsatz von KI zu steuern.

Unternehmenserfolg durch das Vertrauen in KI | smartCIO Workday

Von der Erstellung von Marketinginhalten über schnellere und präzisere Finanzprognosen bis hin zur Rationalisierung von Lieferketten - Unternehmen sehen in der Implementierung von KI in allen Bereichen große Gewinnchancen.

Und niemand möchte zurückbleiben. Tatsächlich geben fast drei Viertel der Führungskräfte an, dass sie Druck verspüren, die Einführung von KI voranzutreiben, so der Bericht 2023 AI IQ von Workday. Aber wo – und wie – KI die größten Vorteile bringen wird, ist immer noch mit Unsicherheit behaftet.

"Was wir vor sechs Monaten getan hätten, ist nicht das, was wir heute tun. Was wir in sechs Monaten tun werden, wissen wir heute noch nicht."

Shane Luke Vice President, AI and Machine Learning (ML) bei Workday

Um das gewaltige Potenzial am Horizont zu erreichen, müssen CIOs ihre Organisationen durch ein Dickicht von versteckten Datenschutz-, Sicherheits-, Vorurteils- und ethischen Problemen führen. Doch die Richtlinien, Regeln und Best Practices, die sie normalerweise leiten würden, werden erst noch entwickelt. Bei so viel Ungewissheit ist es nicht verwunderlich, dass fast die Hälfte (49 %) der CEOs sagen, dass ihr Unternehmen nicht auf die Einführung von KI und ML vorbereitet ist, so der  C-Suite Global AI Indicator Report von Workday.

"Wenn die Mitarbeitenden der Technologie nicht vertrauen, werden sie sie nicht nutzen", sagt Tom Girdler, Principal, Product Marketing bei Workday. "Wenn wir gleichzeitig eine Technologie entwickeln, die auf einem soliden Rahmen basiert, schaffen wir eine erstaunliche Dynamik, in der Vertrauen und KI wirklich zusammen gedeihen können."

Wenn CIOs Vertrauen in KI aufbauen, können sie die Einführung beschleunigen und den exponentiellen Mehrwert liefern, den die Unternehmensleitung erwartet. Was ist dazu nötig? Es beginnt mit der Einhaltung von drei Grundsätzen für vertrauenswürdige KI - und damit, dass Teams, verantwortungsvoll mit dieser transformativen Technologie experimentieren können.

 

1. Bewerten Sie das Datenschutzrisiko - und planen Sie die Einhaltung der Vorschriften

Nicht jede KI-Anwendung birgt das gleiche Risiko. Um die sich entwickelnden Datenschutz- und Compliance-Probleme in den Griff zu bekommen, müssen IT-Teams die einzigartigen Probleme jedes Anwendungsfalls verstehen - und dem Unternehmen helfen, die Projekte entsprechend zu priorisieren.

Einige Risiken sollten von vornherein als inakzeptabel eingestuft werden, z. B. Voreingenommenheit oder Diskriminierung in KI-Modellen, die zu ungerechten oder diskriminierenden Ergebnissen in Bezug auf Rasse, Geschlecht oder andere geschützte Merkmale führen könnten. Auch Sicherheitslücken, unbefugte Datenerfassung und unzuverlässige Vorhersagen sind Beispiele für inakzeptable Risiken, die ein KI-Projekt von vornherein stoppen sollten.

Andere Risiken sind überschaubarer, erfordern aber eine genaue Kontrolle. Zum Beispiel lernen viele KI-Modelle, während sie benutzt werden, was bedeutet, dass neue Interaktionen zu neuen Arten von Verzerrungen führen können. IT-Teams müssen Richtlinien für die Personen entwickeln, die neue Inputs liefern - und die sich entwickelnden Outputs überwachen, um sicherzustellen, dass sie fair und genau bleiben.

"Es geht um Transparenz, technische Dokumentation, Aufzeichnungen, menschliche Aufsicht, Genauigkeit, Robustheit und Cybersicherheit."

Jens-Henrik Jeppesen Senior Director, Public Policy, Workday

CIOs müssen auch ein Auge auf die Einhaltung von Vorschriften haben. Während die meisten Datenschutzgesetze noch mit den neuesten Fortschritten in der KI Schritt halten, sollten Technologieführer auf zukünftige Entwicklungen vorbereitet sein. Die Vorschriften werden sicherlich von Land zu Land unterschiedlich sein, aber es besteht weitgehend Einigkeit darüber, dass einige Schlüsselfaktoren für die Entwicklung und den Einsatz von vertrauenswürdiger KI unerlässlich sind.

 "Es geht um Transparenz, technische Dokumentation, Aufzeichnungen, menschliche Beaufsichtigung, Genauigkeit, Robustheit und Cybersicherheit", sagt Jens-Henrik Jeppesen, Senior Director, Public Policy bei Workday. "Die Idee ist, dass technische Standards entwickelt werden, die den jeweiligen regulatorischen Anforderungen entsprechen, und dass die Unternehmen sich nach diesen Standards zertifizieren lassen."

 

2. Menschen am Ruder lassen

Science-Fiction-Autoren lieben es, sich dystopische Zukünfte vorzustellen, die von intelligenter KI beherrscht werden. Natürlich wissen Technologen, dass KI nicht denken kann - sie kann nur auf der Grundlage ihrer Trainingsdaten zu Schlussfolgerungen kommen. Aber das kann auf seine eigene Weise gefährlich sein.

Wenn nicht denkende Maschinen rein datengesteuerte Entscheidungen treffen, ignorieren sie oft entscheidende Kontextfaktoren. So berücksichtigt ein KI-gesteuertes Finanzmodell, das sich bei seinen Prognosen auf historische Daten stützt, möglicherweise nicht die aktuellen geopolitischen Bedingungen oder die jüngsten Stimmungsschwankungen an den Märkten, die die Geschäftsergebnisse erheblich beeinflussen könnten.

Damit KI fundierte Geschäftsentscheidungen treffen kann, muss der Mensch bei jedem Schritt involviert bleiben. Von der Schulung und dem Testen bis hin zur Implementierung und Übernahme sollten Unternehmen KI nutzen, um das menschliche Potenzial zu erweitern - und nicht andersherum.

"Die eigentliche Frage ist, wie man das in die Praxis umsetzt", fragte Kelly Trindel, Chief Responsible AI Officer bei Workday.

Das erfordert eine disziplinübergreifende, aufgeschlossene Zusammenarbeit über verschiedene Bereiche hinweg, sagte sie. In dieser Anfangsphase müssen CIOs die Teams und Organisationsstrukturen aufbauen, die für die Entwicklung der Richtlinien erforderlich sind. Diese werden Fairness, Genauigkeit, Zuverlässigkeit und Robustheit fördern, wenn das Unternehmen neue Anwendungen online stellt.

"Die Mitarbeitenden, die wirklich wissen, wie das Ganze funktioniert, müssen in die Gestaltung Ihrer KI-Governance einbezogen werden", so Trindel. "Wir sehen es als Best Practice an, getrennte Berichtslinien für diejenigen zu haben, die die Governance für KI-Systeme entwickeln, und für diejenigen, die an vorderster Front KI-Systeme entwickeln."

 

3. Entwerfen Sie einfachere Systeme, um Vorurteile abzuschwächen

Vorurteile in der KI lassen sich nicht vollständig vermeiden. Jeder Mensch hat seine eigene Meinung - und Menschen trainieren KI auf der Grundlage dessen, was sie für wahr halten. Wenn Sie jedoch von Anfang an proaktiv daran arbeiten, Bias abzuschwächen, können Sie einen großen Beitrag zum Aufbau ethischer und gerechterer KI-Systeme leisten.

"Das Design des Systems ist bei weitem das Wichtigste", sagt Luke. "Sie können das System so gestalten, dass es sehr unwahrscheinlich ist, dass es etwas produziert, was Sie nicht wollen. Das ist also der Startpunkt."

77% der Führungskräfte machen sich Sorgen, dass zumindest einige ihrer Daten nicht zeitnah oder vertraulich genug sind, um sie mit KI und ML zu nutzen.

Da die Trainingsdaten die Ergebnisse der KI bestimmen, müssen CIOs sicherstellen, dass alle Anwendungen mit vertrauenswürdigen Daten erstellt werden, die von verschiedenen menschlichen Teams untersucht und validiert wurden. Das Testen der Ergebnisse ist zwar wichtig, um Verzerrungen zu vermeiden, die sich in das Modell einschleichen, aber dies sollte das Sicherheitsnetz des Unternehmens sein - nicht die erste Verteidigungslinie, so Luke. "Es geht nicht darum, die Ergebnisse zu überprüfen oder zu kontrollieren. Das ist viel schwieriger, und es ist nie endgültig.”

Große Sprachmodelle wie Chat GPT werden zum Beispiel auf großen, allgemeinen Datensätzen trainiert, die es ihnen ermöglichen, lange Antworten in überzeugender natürlicher Sprache zu liefern. Aber diese Datensätze enthalten oft schlechte Inhalte, wie z.B. Fehlinformationen aus dem Internet. 77% der Führungskräfte befürchten, dass zumindest ein Teil ihrer Daten nicht aktuell oder zuverlässig genug ist, um sie mit KI und ML zu nutzen. Als Alternative sollten CIOs und ihre Systemdesigner die Entwicklung von Anwendungen mit einem kleineren Umfang in Erwägung ziehen, die für ganz bestimmte Aufgaben trainiert sind.

"Sie sind nicht so fähig, sehr allgemeine Dinge zu tun, also sind sie weniger bezaubernd", sagte Luke. "Aber sie sind sehr kompetent in Bezug auf die Aufgaben, die sie erledigen sollen, während sie nicht so gut in Bezug auf Dinge sind, die Sie nicht wollen."

Weiteres Lesematerial