責任ある AI の活用には協力が必要: 開発者と導入者の連携

AI の開発者やそのテクノロジーを導入する企業は、AI が良いことのために活用されるように連携して取り組む必要があります。AI バリュー チェーンに関与するすべての人々が、AI の開発・使用について責任を持って進めるという使命を担っています。

オープン コンセプトの職場で会議を行っているオフィス従業員グループ。

AI によって社会に好影響をもたらすためには、AI を構築する人々と AI をビジネスで活用する人々が責任/説明責任を共有する必要があります。責任ある AI はチーム活動の上に成り立ちます。AI バリュー チェーンに関与するすべての人々は、誰もが望む未来を創造するという意味で重要な役割を担います。

このブログでは、AI テクノロジーの開発者 (Workday など) と AI テクノロジーの導入者 (Workday のお客様など) を対象としたベストプラクティスをいくつかご紹介します。

責任ある AI を開発するためのベストプラクティス

以下に紹介する原則は、責任ある AI の基盤であり、Workday が遵守しているベストプラクティスです。当社はこれらのベストプラクティスを導入するよう他の開発者にも奨励しています。さらにこのアプローチは多面的であり、組織のあらゆる階層の支持とサポートを必要とします。責任ある AI は単一の個人、チーム、エグゼクティブ運営コミッティのみが担う責務ではありません。リーダー層が認識し、あらゆる社員の参加を促す必要がある全社的な重要課題です。

一貫した方法で AI リスク評価を実行する:Workday が新たに構築するすべての AI 製品は、拡張可能なリスク評価を通じて審査が行われます。このリスク評価は EU AI 法で定義されているリスク カテゴリに従って開発されています。この分析では、技術設計、モデル設計、個人の経済的機会への潜在的影響、監視にまつわる懸念事項など、背景と製品特性の両面から評価を行えるため、新しいユース ケースのリスク レベルを効率的に判断できます。

「高リスク」のユース ケースは、「許可されない」ユース ケースとは異なります。「高リスク」なユース ケースとは、より多くのガイドラインや安全対策を策定し、慎重かつ注意深く運用する必要があるユース ケースを意味します。侵害的な生産性モニタリング、生体認証監視など、「許可されない」ユース ケースは、Workday の価値観に反しているため、当社はこのカテゴリに該当するソリューションを構築していません。

上級開発者は、さまざまなプログラムを活用し配置します。責任あるAIガバナンスに特化した専任チームもその一例です。

適切に策定された責任ある AI ガイドラインを遵守する:許可されないユース ケースについては、リスク評価を行った上で、必要なリスク軽減対策をガイドライン形式で規定します。そうすることで、開発チームはソリューションを構築する際にガイドラインを確認し、ガイドラインに従って文書化を行うことができます。高リスクなテクノロジー (従業員の経済的機会に影響が及ぶような意思決定を支援するお客様向けテクノロジーなど) を開発する場合は、低リスクのテクノロジー (予算の異常を特定するテクノロジーなど) を開発する場合と比べ、責任ある AI に関するガイドラインがより多く必要になります。責任ある AI に関するガイドラインは、透明性、公平性、説明可能性、常に人間が関与する原則、データ品質、堅牢性などの分野について規定しています。目標は 2 つあります。1 つはお客様に品質と信頼性に優れた AI テクノロジーを提供するため、意図しない結果 (バイアスなど) を招くことを回避すること、もう 1 つは次々に開発されるベストプラクティス フレームワークや規制を確実に遵守することです。

お客様に対する当社の透明性を確保:Workday は当社が提供する各 AI ツールの AI ファクト シートをお客様に提供しています。そうすることで、当社の AI 製品の構築、テスト、トレーニングの方法や、AI 製品の使用に関する既知の制限、さらに各機能のリスク軽減対策の概要について、当社の透明性を確保しています。責任ある AI 開発の重要性について従業員がどのような指導・教育を受けているかについても明らかにしています。

責任ある AI を導入するためのベストプラクティス

以下のベストプラクティスは、責任を持って AI テクノロジーを導入するための鍵となります。

AI バリュー チェーンに関与する人々の固有の役割と責任を理解する:規制やベストプラクティス フレームワークは、AI のリスク管理責任を把握するという意味において、Workday のような開発者だけでなく、導入者にとっても利用価値があります。たとえば EU AI 法第 26 条には、高リスクな AI システムの導入者に対する義務が規定されています。Future of Privacy Forum の『Best Practices for AI and Workplace Assessment Technologies』も利用価値の高いリソースです。

さらにコロラド州で最近採択された法律には、開発者と導入者の両方の義務が規定されています。この法律には、Workday が州レベルで提唱してきた新しいフレームワークが反映されています。リソースを利用することで、重要な役割を担う導入者は AI リスク管理の責任を明確に把握することができます。

信頼できる AI 開発者と連携する:信頼できる AI 開発者は、既存の規制に精通しているだけでなく (動きの速い AI 分野では同様に重要となる) 改革中の規制やベストプラクティスにも精通しています。このような開発者は、先を見据えて行動するため、責任ある AI/リスク軽減フレームワークを計画的に構築し、変化の激しい規制環境に対応することができます。

AI 開発者を選ぶ際は、EU AI 法、NIST AI リスク管理フレームワーク、その他の規制ガイダンスやベストプラクティスを理解・遵守していることを確認するようにします。開発者はリスクを特定・軽減する施策について顧客に説明できるように準備しておく必要があります。上級開発者は、さまざまなプログラムを活用し配置します。責任あるAIガバナンスに特化した専任チームもその一例です。責任ある AI を計画的に開発することに専念し、AI 製品や AI テクノロジーに信頼性を直接組み込みます。

信頼できる AI 開発者は、既存の規制に精通しているだけでなく (動きの速い AI 分野では同様に重要となる) 改革中の規制やベストプラクティスにも精通しています。

AI システムを責任を持って使用し、その監督を効果的に進める:AI システムとエンドユーザーを直接つなげる立場にある導入者は、AI バリュー チェーンにおいて極めて重要な役割を担います。まず、導入者は解決したいビジネス課題を特定し、ベンダーが提供する AI テクノロジーが効果的なソリューションであるかどうかを判断する必要があります。次に、どのような責任ある AI ガイドラインが組織の AI 活用に適しているかを検討する必要があります。たとえば、開発者は集計データ サンプルを使用して公平性をテストする一方、導入者はこのようなテストを自身のローカル データを使用して行います。

開発者は、AI の監督を人間が効果的に実施できるシステムを設計する一方、導入者はシステムを監督する方法を検討します。つまり最適化するプロセス内でシステムの効果を最大限に引き出す方法を検討する必要があります。導入者はシステムの設定を通じてこのプロセスを最適化し、システムがプロセス内でどのように機能するかを監視・モニタリングする必要もあります。

力を合わせて一歩ずつ前へ

責任ある AI システムのプロバイダとして、Workday は信頼性の高い AI システムを開発する責任を痛感すると同時に重視しています。当社は開発者として、広範な AI バリュー チェーンの一翼を担っていると自負しています。AI テクノロジーを活用することで人間の可能性を広げ、社会に好影響を与えるためには、バリュー チェーンに関与するすべての人々の連携が不可欠になります。

責任ある AI ガバナンス プログラムの詳細については、ホワイトペーパー『責任ある AI: 整合性をもってイノベーションを促進する』をご覧ください。このホワイトペーパーでは、Workday のアプローチを推進する原則、実践、人財、公共政策上の役割について紹介しています。

Workday が信頼を何よりも大切にしながら、どのように組織の人と資金の管理方法を変革し、大手グローバル ブランドを AI に対応する未来へと力強く導いているかをご覧ください。

さらに読む