Wenn KI positive Auswirkungen auf die Gesellschaft haben soll, müssen sich diejenigen, die KI entwickeln, und diejenigen, die die Technologie im Rahmen ihrer Aufgaben zum Einsatz bringen, auf gemeinsame Pflichten und Verantwortlichkeiten einigen. Verantwortungsvolle KI erfordert Teamarbeit: Jeder Akteur in der KI-Wertschöpfungskette spielt eine wichtige Rolle dabei, die Zukunft nach unseren Vorstellungen zu gestalten.
Im Folgenden finden Sie einige Best Practices für Entwickler von KI-Technologien wie Workday und die Anwender dieser Technologie, beispielsweise unsere Kunden.
Best Practices für die verantwortungsvolle Entwicklung von KI
Die folgenden Grundsätze sind unerlässlich für eine verantwortungsvolle Entwicklung der KI. Dies sind die Best Practices, die wir befolgen und die wir auch anderen Entwicklern nahelegen. Darüber hinaus setzt dieser mehrstufige Ansatz die Konsensbildung und Unterstützung auf allen Ebenen des Unternehmens voraus. Verantwortungsvolle KI ist nicht die Aufgabe eines Einzelnen, eines Teams oder eines Lenkungsausschusses, sondern ein absolutes Muss, das von den Führungskräften erkannt und im gesamten Unternehmen etabliert werden muss.
Konsequente KI-Risikobewertung: Jedes neue KI-Produkt, das wir auf den Markt bringen, durchläuft unsere skalierbare Risikobewertung, die in Abstimmung mit den im KI-Gesetz der EU definierten Risikokategorien entwickelt wurde. Diese Analyse ermöglicht es uns, den Risikograd des neuen Anwendungsfalls effizient zu bestimmen – sowohl in Bezug auf den Kontext als auch auf die Merkmale. Hierzu zählen beispielsweise die technische Gestaltung sowie das Modelldesign, die potenziellen Auswirkungen auf die ökonomischen Chancen des Einzelnen und Bedenken im Hinblick auf eine mögliche Überwachung der Mitarbeiter.
Anwendungsfälle mit „hohem Risiko“ unterscheiden sich von „unzulässigen“ Anwendungsfällen. Ein „hohes Risiko“ bedeutet, dass der Anwendungsfall mehr Richtlinien und Sicherheitsvorkehrungen sowie größere Sorgfalt und Umsicht erfordert. „Unzulässige“ Anwendungsfälle, z. B. in die Privatsphäre eingreifende oder biometrische Methoden zur Produktivitätsüberwachung, stehen im Widerspruch zu unseren Grundwerten. Darum entwickeln wir auch keine Lösungen, die in diese Kategorie fallen.