人工知能 (AI) とデータ プライバシーの動向についていくのは大変なことです。そこには大きな将来性とチャンスがある一方、データの濫用や個人のプライバシー侵害の懸念もあります。第 4 次産業革命が進む中でこうしたトピックについて考えていくと、AI の将来性と危険性、そしてその価値を活かすために企業がどのようなステップを踏むべきかという課題が浮かび上がってきました。

テクノロジー製品に「倫理」を組み込むというのは、技術者や開発者にとっては抽象的に感じられるかもしれません。これについては多くのテクノロジー企業がそれぞれ独自に具体的な取り組みを行ってはいますが、その垣根を取り払いベスト プラクティスを共有することが喫緊の課題となっています。コラボレーションを通してお互いから学び合うことで、業界全体の基準を向上させることができます。では、どこから手を付けるのが良いでしょうか?まずは信頼の獲得に重点を置くべきでしょう。

信頼は当初から Workday の基盤です。お客様は当社がお客様のプライバシーとセキュリティを深刻に受け止め、長い間そのために取り組んできたことをご存知です。それは、プライバシー原則GDPR への取り組み厳格なプライバシー プログラムを通じて、プライバシー保護を Workday のサービスの中心に据えているからです。Workday は人間中心の機械学習 (ML) 対応の未来に向けて前進を続けながら、プライバシーとセキュリティを最優先したアプローチを採用して、ML を倫理的な方法で設計および提供しています。

AI 製品を設計および展開するにあたり、多くの企業が基本原則を掲げています。しかし、原則は実践を伴って初めて価値があります。Workday は先ごろ、倫理に配慮した AI へのコミットメントを発表し、当社のコア バリューである顧客サービス、誠実さ、イノベーションという土台の上に構築される原則をどのように具体化していくかについて表明しました。このような原則に全社的に取り組もうとしているテクノロジー企業に向けて、Workday が経験を通じて学んだ 8 つのポイントを紹介します。

1. AI の倫理についての共通認識を定義する。この定義は、社内の関係者にとって具体的かつアクショナブルである必要があります。Workday にとっての AI の倫理とは、倫理に配慮した AI に対する Workday のコミットメントを機械学習システムに反映させることを意味します。つまり、人間優先、社会への配慮、公正な行動と法令の遵守、透明性と説明責任の確保、データ保護を実現する企業向け機械学習システムを提供することです。

2. 倫理に配慮した AI を製品開発とリリースのフレームワークに組み込む。このプロセスを分離してしまうと、開発者や製品開発チームの負担が増え、作業が複雑になってしまいます。Workday では、製品開発の基本構造に当社の原則を組み込み、常に原則を遵守できるようなプロセスを構築しました。新しい ML 管理が Workday の公式の管理フレームワークに組み込まれ、ML の倫理原則が追加で適用されるようになっています。開発チームは、データ収集やデータ最小化、透明性に関するチェック、あるいは価値観をベースにしたチェックを行うことで、倫理的な観点から ML 製品を一つ一つ検証します。これについては、プライバシー バイ デザインのプロセスや、統制と標準に対する第三者による監査など、私たちにはプライバシー分野での長い経験があります。Workday では、ML の管理にエシックス バイ デザイン (設計による倫理) を取り入れており、新しいテクノロジーのリリースや新たなデータ使用に対する厳格なレビューと承認のメカニズムを整えています。また、継続的にプロセスのレビューを行い、新たな業界ベストプラクティスと法令を取り入れてプロセスを発展させていくよう取り組んでいます。

3. 責任ある ML および AI の設計、開発、展開についてのあらゆる意思決定を支援するため、部門を越えた専門家グループを結成する。この取り組みの初期段階で、製品およびエンジニアリング、法務、公序良俗とプライバシー、倫理およびコンプライアンスの各分野の社内専門家からなる機械学習タスク フォースを立ち上げました。このグループが、当社製品における ML の将来的な利用と現在の利用状況について調査しました。多岐にわたるスキルと見解を結集して、当社製品での ML の将来的な利用と現在の利用状況を議論することは極めて効果的で、製品のライフサイクルの初期段階で潜在的な問題を特定することができました。

4. 責任ある AI の設計、開発、展開に顧客の協力を仰ぐ。製品開発ライフサイクルを通じて、幅広い顧客ベースのお客様に顧客アドバイザリー ボードに参加していただき、AI および ML に関連した開発テーマについてのフィードバックを入手しています。また、一部のお客様とは早期導入プログラムを通じて緊密な連携を行っています。お客様にはイノベーション サービスを通じ、設計パートナーとして新しい ML のモデルと機能のテストを実施していただいています。これによって、人間中心の ML ソリューションを共に開発しながら、AI および ML に関するお客様のアイデアや懸念を早い段階で理解し対処することができます。

5. 機械学習への先入観に対して「ライフサイクル アプローチ」を取り入れる。機械学習ツールを使用することは大きなチャンスにつながり、お客様はデータを活用して人間による意思決定を補助することができます。このような機会を提供するために、企業向けツールを構築して、お客様が当社に寄せる絶大な信頼を維持することが私たちの責任です。またこれは、倫理に配慮した AI へのコミットメントの焦点の 1 つが、ML への有害な先入観の緩和であることの理由です。Workday はライフサイクル アプローチに重点を置いています。製品の初期コンセプトからリリース後に至るまで、設定されたチェックポイントでさまざまな先入観の評価とレビューを行います。

6. 透明性を確保する。ML の倫理的な使用には透明性が求められます。機械学習のアルゴリズムは非常に複雑であるため、企業はどのデータが、何の目的で、どのような方法で使用されるのかについて、一般に求められる以上に丁寧に説明する必要があります。Workday は、自社の機械学習テクノロジーの動作と利点、そして ML ソリューションが真価を発揮するために必要なデータ コンテンツについてお客様に説明することで、お客様に対して ML ソリューションに関する説明責任を果たしています。

7. 社員が責任ある製品を設計できるよう支援する。当社ではこれを行うために、必要な倫理トレーニング モジュール、ツールキット、セミナー、社員オンボーディング、ワークショップを提供し、Workday の AI 倫理を守るにはどうすればよいかを社員がしっかりと理解できるようにトレーニングを行っています。たとえば、人間中心の設計思想についてのワークショップでは、さまざまなシナリオと人物設定を使用して、倫理に配慮した ML テクノロジーへの Workday のコミットメントについて社員の理解を促しています。

8. 業界内で知識を共有する。当社は、テクノロジーの倫理的設計と展開に関する世界経済フォーラム運営委員会など、業界団体やピア ミーティングへの参加を通じてこれを行い、テクノロジー業界のための倫理フレームワークの構築に役立てています。さらに、新しい標準や計画について情報収集し、貢献することを優先事項としています。米国においては、倫理に配慮した AI に関連して議員や政府関係者と積極的に関わってきました。たとえば、「Industry Approaches to Ethical AI (倫理に配慮した AI への産業アプローチ)」に関する Congressional AI Caucus のスタッフ ブリーフィングを開催して参加し、業界関係者と政策立案者の集まる中、複数の会場で会議を招集しました。さらに、アメリカ国立科学財団での『National Artificial Intelligence Research and Development Strategic Plan (米国人工知能研究開発戦略計画)』の更新、アメリカ国立標準技術研究所 (NIST) の『Artificial Intelligence Standards and Tools Development (AI の標準とツールの開発)』レポートの作成などをサポートしました。また、AI 倫理ツールの開発における NIST の役割拡大を後押しする活動も続けています。欧州では、Workday はパイロット プログラムに参加し、欧州連合 (EU) の High-Level Expert Group (HLEG) の倫理ガイドラインにおける「Trustworthy Artificial Intelligence Assessment List (信頼性の高い AI の評価リスト)」の評価に加わりました。

倫理に配慮した AI の世界は進化を続けています。この進化に対応していくにあたり、その過程で学んだことを確認し、ベスト プラクティスを共有することがこれまで以上に重要になります。スケーリングや実装における効果的なアプローチなど、他社のお話を積極的に伺い、情報共有していこうと考えています。実際、世界経済フォーラムとコラボレーションを行ったのも、責任と倫理に配慮したテクノロジーを推進していくためのベスト プラクティスを共有する活動に他の組織も参加するよう促すことが目的でした。責任と倫理に配慮した人工知能とテクノロジーを追求することは極めて重要です。そして、それは単独の会社や組織だけでまかなえる仕事ではありません。

私たちは共に手を取り合い、行動を通して信任と信頼を築く必要があります。これによって新しく強力なテクノロジーのメリットを享受することができるのです。

さらに読む