2023
,
12
,
26
-
10
minute read

AIガバナンスをめぐる議論の現在地点 〜「AI事業者ガイドライン案」を踏まえて

2023年12月21日、AI戦略会議において、「AI事業者ガイドライン案」(以下「新GL案」)が重要トピックとして取り上げられました。この新GL案は、これまで総務省や経産省で策定されていたAIガバナンス関連のガイドラインを統合し、生成AIの流行等の最新の動向に対応した形で内容を修正したものです。

本記事では、新GL案の構成・概要を確認するとともに、社会として今後議論が必要なポイントについて簡単に記述します。

新GL案の位置付けと構成

新GL案は、先にも触れたように、総務省や経産省が策定していたAIガバナンス関連のガイドラインを統合した文書です。その目的は、「関係事業者による自主的な取り組みを促し、非拘束的なソフトローを通じて目的達成に導く」(新GL案 p.2)ことにあります。新GL案は法的拘束力を持たない文書であり、関係事業者の自主的な取組が期待されています。

このガイドラインの対象範囲は広く、「様々な事業活動においてAIを活用する全ての者」と定義されています(新GL案 p.4)。これにはAIモデル自体を開発する事業者から、それをサービスに組み込む事業者、さらにはエンドユーザーまでが含まれており、実際に構成をみると、AIに関わる主体ごと(AI開発者、AI提供者、AI利用者)に取組事項の詳細が分けて記述されています。

逆にいえば、AIをビジネス活用する全ての企業は新GL案の動向を注視し、必要に応じて意見を発信することが重要となるでしょう(1月にはパブリックコメントの実施も予定されています)。

新GL案 p.5より

全体の考え方で特に注目すべきは、「リスクベースアプローチ」の採用です。このアプローチにより、「本ガイドラインは本編、別添を通してリスクベースアプローチの考えに基づいて記載しており、事業者も同様に自らが重点的に対策すべきことと不要なことを見極め、効果的な施策、AIガバナンス構築を実現することを期待している」とされています(p.3)。ただし、各ユースケースにおいてどの程度の対応をとるべきかについては、各主体がゼロから判断することは困難であり、企業や業界を横断した取組により、広範な関係者で情報共有等を実施することが不可欠となるでしょう。

AIリスクの捉え方

リスクの最小化やガバナンスを考える上では、問題の捉え方が重要になります。新GL案では「AIリスク」について、「あくまで一例」としつつも、以下のような問題が提示されています(新GL案別添 pp.13-17)。「AIに関する暫定的な論点整理」から大きな変化は見られませんが、特に生成AIに関連する部分において、より詳細化・深化した論点が存在することが窺えます。

  • バイアスのある結果や差別的な結果の出力(人間中心、公平性)
  • フィルターバブルやエコーチェンバー現象(人間中心)
  • 多様性の喪失(人間中心)
  • 不適切な個人情報の取扱い(プライバシー保護、人間中心)
  • 生命、心身、財産の侵害(安全性、公平性)
  • データ汚染攻撃(セキュリティ確保)
  • ブラックボックス化、判断に関する説明の要求(透明性、アカウンタビリティ)
  • エネルギー使用量と環境の負荷(人間中心)
  • 【生成AI】悪用(安全性、教育・リテラシー)
  • 【生成AI】機密情報の流出(セキュリティ確保、教育・リテラシー)
  • 【生成AI】ハルシネーション(安全性、教育・リテラシー)
  • 【生成AI】偽情報、誤情報を鵜呑みにすること(人間中心、教育・リテラシー)
  • 【生成AI】著作権との関係(安全性)
  • 【生成AI】資格等との関係(安全性)
  • 【生成AI】バイアスの再生成(公平性)

これらのリスクの多くは、AIの入出力の評価を通じて対処可能なものです。関係する主体は、それぞれリスクの性質を認識した上で、必要に応じてAIのリスク評価を検討するべきでしょう。Robust Intelligenceが提唱する「3つのAIリスク」のフレームワークとの関係性は、下図もご参照ください。

特に生成AIに関連するセキュリティリスクについては、最近の研究でも注目されています。攻撃者の手法はますます多様化しており、これに対する対策も進化し続ける必要があります。この分野でRobust Intelligenceの研究チームが携わった最新の成果によれば、

などの最新のリスク・攻撃手法が次々と明らかになっています。

各主体に求められる取組事項とその実現に向けた課題

新GL案では、AIリスクに対応するために、関連する各主体への取り組み事項が詳細に記載されています。第2部では各主体が共通して取り組むべき事項が記述され、具体的な内容は第3部以降で詳述されていますが、今回は第2部に焦点を当てます。これらの内容は、総務省の「AI利活用ガイドライン等をもとに修正・発展されたものとみられます。

第2部の「共通の指針」は以下の項目で構成されています。

  1. 人間中心: 人権の保護や、多様な人々の幸せ(well-being)の追求など
  2. 安全性: AIに関わる者の生命・心身・財産への危害の防止など
  3. 公平性: 特定個人や集団への不当で有害な偏見や差別の最小化など
  4. プライバシー保護: プライバシーの尊重・保護
  5. セキュリティ確保: AIの外部的操作などからの保護
  6. 透明性: 検証可能性の確保やステイクホルダーへの情報提供
  7. アカウンタビリティ: トレーサビリティ確保や、ガイドラインなどへの対応状況の対外的な説明
  8. 教育・リテラシー: AIに関わる者のリテラシーや倫理観の養成など
  9. 公正競争確保: AIをめぐる公正な競争環境の維持
  10. イノベーション: イノベーション促進への貢献

これらの指針において、1) から 7) までの項目はバリューチェーン上の各主体が取り組むべき事項とされ、8) から 10) までは政府や関連機関との連携が必要とされています。このことから、少なくとも大枠では、AIリスクへの対応は各主体が自主的に取り組むことが予定されていると解釈できます。

しかし実際には、「適切なリスク分析を実施し、リスクへの対策を講じる」(新GL案 p.14)といったハイレベルに示された内容を各企業が個別に検討し、実装することには困難が伴います。新GL案内にも一部の事例は示されていますが、今後も企業や業界の垣根を超えた情報共有が求められると考えられます。

なお、これらの「共通の指針」を実際に実装するためのプロセスに関しては、新GL案の別添2〜5および末尾に示される「チェックリスト」が参考になります(新GL案 pp.18-)。これらの記載は、各企業がどのように示された価値を実現していくかのプロセスをまとめたものであり、従来の経産省のガイドラインをもとに修正・発展されたものとみられます。今後、業界別等でも様々なプラクティスが登場することが予想される中、特に「別添」の改訂などを通じて、変化する状況に対応することが予定されたガイドライン構成となっていることが窺えます。

企業としてのAIガバナンス: 明日から、何の検討を始めるべきか

新GL案の発表に伴い、生成AIのような技術動向の変化に対応するため、企業は従来のガバナンスモデルを見直し、それを進化させることが求められています。新GL案では、これまでの政府のガイドラインが提供する枠組みが大枠で踏襲されつつも、新たな技術の展開に合わせていくつかの要求事項が更新されています

企業はこの変化に対応するため、特に以下の観点でのガバナンスモデルの見直しを進める必要があります。

  1. 社内のルールメイキング: AI技術の特性に合わせた社内規則やポリシーの策定や更新
  2. 組織体制の整備、人材育成: AIリスク管理に必要な組織体制の構築と、適切なスキルを持った人材の育成
  3. モデルの技術的評価: AIモデルの品質・倫理・セキュリティ等の観点でのリスク検証手法の確立

これらの点については、Robust Intelligenceでも10月にAIガバナンスホワイトペーパー ver.1.0を発行し、企業が検討すべき論点をまとめています。AIガバナンス整備の出発点としてぜひご参照ください。

社会としてのAIガバナンス: ガイドラインは何をどこまで担っているのか

ここで少し視点を上げて、社会としてのAIガバナンスの大枠について考えてみます。

アラインメント Alignment問題などと呼ばれたりするものですが、「AIシステムを特定の目的に沿って設計する」場合には、様々なレイヤーでの価値・目標との整合の議論が考えられます。特に大枠では、直接的アラインメント Direct Alignmentと社会的アラインメント Social Alignmentという2パターンのアラインメントの方策があるとされています(Korinek, Balwit 2023*)。

  1. 直接的アラインメント(Direct Alignment): 個々のAIシステムの設計者や提供者が自身の利益に即した目標を追求すること。例えば、売上や利益の最大化などがこれに含まれる
  2. 社会的アラインメント(Social Alignment): AIシステムがもたらす影響を受ける全てのアクターの利益を考慮した、より広範な目標の追求。例として、失業の防止、民主主義への負の影響の防止、環境問題の解決などが挙げられる

新GL案は、直接的アラインメントでは解決されない問題を中心に、各主体の措置を求めているものといえます。具体的には、生成AIの流行に伴って特に懸念される課題として、偽情報対策をはじめとする様々なリスクを背景とした目標設定がなされています。これらの目標は、必ずしも企業の経済合理性からは導かれない、いわゆる「外部性」の領域のリスクであり、そこに改めて政策的なアプローチが採られたことは重要な一歩です。

しかしながら、社会的アラインメントの実装に向けては多くの問題が残されています。そもそも実際には、このガイドラインに示された価値・目標を実現するためには、AI開発者・提供者・利用者が取り組むことが不可欠です。つまり、AIに関わる具体的な個々のアクターをコントロール・ポイントとしてしか、社会としてのAIリスクへの対処は成立し得ません。しかし、以下2点の理由から、まだまだ検討すべき点は多いです。

まず、ガイドラインで示された「共通の指針」などの目標を達成するためのプラクティスが確立していないことが挙げられます。新GL案でも一定の事例などを示しているものの、特に生成AIの流行により技術・ガバナンスをめぐる動向が激変する今日、より具体化した知見はまだまだ社会全体で不足している状況といえるでしょう。ある意味、2021年時点で経産省が示していた下図のような課題意識は、今日改めて顕在化しているように思われます。

続いて「履行確保」の問題、つまり遵守のインセンティブ設計の問題です。新GL案は法規制ではないため罰則が直接課されることはなく、社会的なプレッシャーによって個別アクターの行動が規制される形となります。しかし、企業がガイドラインにどの程度準拠しているかを外部から判断することは難しく、新GL案において求められている「アカウンタビリティ」=「AI システム・サービスのもたらすリスクの程度を踏まえ、合理的な範囲でアカウンタビリティを果たす」(新GL案 pp.17-19)ことが実際にどの程度徹底されるかは未知数とも思えます。つまり、社会として十分にAIシステムをコントロールできない可能性があります。

実際にこうした懸念もあってか、自民党が12月20日に担当大臣に手交した「人工知能(AI)の安全性確保と活用推進に関する緊急提言」などでは、直接的な法規制を検討するよう求める内容も含まれています。国際的にも、EUや米国を中心に法規制の検討が進んでいることは周知の通りです。

* Korinek, Anton, and Avital Balwit, 'Aligned with Whom? Direct and Social Goals for AI systems', in Justin B. Bullock, and others (eds), The Oxford Handbook of AI Governance (online edn, Oxford Academic, 14 Feb. 2022), https://doi.org/10.1093/oxfordhb/9780197579329.013.4, accessed 26 Dec. 2023.

今後の課題

新GL案は、近時の技術・社会情勢の変化を踏まえたAIリスクの認識と、それに対応するためのAIガバナンスの大枠(What, Why)を示しており、関係するアクターの目線では非常に有用なものです。しかし、それを実現するための具体的な方法論(How)はまだ多くの課題を抱えています。新GL案自体についてはパブコメ等を経た検討状況を引き続き確認することが重要ですし、特に先ほども触れた以下のような点については今後、社会全体で検討を深める必要があるでしょう。

  • AIガバナンスの具体的なプラクティスの検討・共有: 仮に個々のアクターがガイドライン遵守を目指そうと思っても、「共通の指針」を達成するための具体的な方策については、まだ十分なプラクティスが確立されていない部分も多く残されています。引き続き、企業や業界の垣根を超えた共有・検討を行う議論の場を設計していくことが必要です。
  • AIガバナンスを普及・促進する社会的枠組み: 政府・社会の目線では、新GL案に示された望ましいアクションを実施するインセンティブを個々のアクターにどのように与え、エンフォースメントを行うが今後の課題となります。たとえば、ハードローまではいかずとも、特定のアクションの実施状況を可視化する「認証制度」などの枠組みについては、産業界からも高いニーズがあるところ、政府および関連するプレイヤー間で継続的な検討が重要でしょう。

Robust Intelligenceでは、AIガバナンス協会(AIGA)への参画を通じ、これらの論点に積極的に貢献していく予定です。社会全体としての課題に対して、より多くの企業や組織が議論に参加し、解決に向けた取組を進めることが重要なフェーズです。こうした取組にご関心のある方はぜひ、コンタクトフォーム等から弊社にご連絡ください。

Blog

関連記事

2024
,
02
,
22
-
3
minute read

Robust Intelligence、米商務省のAI安全性コンソーシアムへの参加が決定

Heading
For:
2024
,
03
,
13
-
3
minute read

Robust Intelligence、日立ソリューションズと協業しAIガバナンスを支援

Heading
For:
2023
,
11
,
02
-
10
minute read

エグゼクティブイベント “AI Risk Management Summit 2023” 開催報告

Heading
For:
2024
,
05
,
30
-
5
minute read

LLMのファインチューニングにより安全性とセキュリティのアラインメントを損なう可能性が明らかに

Heading
For:
2023
,
03
,
16
-
5
minute read

Workday訴訟をきっかけに考える、人事・雇用領域のAIリスク

Heading
For:
2023
,
10
,
25
-
5
minute read

Robust Intelligenceと損保ジャパンが業務提携 〜AIの信頼性確保に向けた大規模言語モデルのリスク評価と全社的なガバナンス体制の構築〜

Heading
For:
2023
,
10
,
25
-
5
minute read

より良いAIガバナンス実装に向けて〜「AIガバナンスホワイトペーパー ver. 1.0」の概要〜

Heading
For:
2024
,
02
,
28
-
3
minute read

2024年、AI活用本格化の年に取り組むべきAIリスク対策・AIガバナンスの社会実装

Heading
For:
2023
,
04
,
03
-
7
minute read

Robust Intelligenceのビジョンと日本市場の新体制

Heading
For:
2024
,
06
,
19
-
3
minute read

Robust Intelligence、KPMGジャパンと生成AIを含むAI評価、AIガバナンス評価サービスの提供に向けた協業を開始

Heading
For:
2024
,
01
,
10
-
2
minute read

Robust Intelligence、日本ディープラーニング協会(JDLA)に正会員企業として入会

Heading
For:
2024
,
03
,
29
-
6
minute read

Robust Intelligence、東京海上ディーアール社と日本企業のAI活用支援を目指す協業を開始

Heading
For:
2023
,
03
,
06
-
5
minute read

自民党・AIプロジェクトチームの議論に参加しました

Heading
For:
2024
,
06
,
17
-
3
minute read

共同創業者の大柴が東京大学の特別講座で講演を行いました

Heading
For:
2023
,
11
,
18
-
3
minute read

共同創業者の大柴が日韓首脳とのスタートアップ車座対話に出席しました

Heading
For:
2023
,
04
,
10
-
6
minute read

AIシステム実用化のためのTest-Drivenアプローチ

Heading
For:
2023
,
12
,
08
-
5
minute read

AIを用いたGPT-4やその他のLLMの脱獄の自動化の研究結果を発表

Heading
For:
2024
,
05
,
20
-
5
minute read

セキュアなAIトランスフォーメーションの実現を目指すRobust Intelligenceが日本語LLM対応の「AI Firewall®」を提供開始

Heading
For:
2023
,
07
,
21
-
5
minute read

トラスト確保のための「第三者検証」

Heading
For:
2023
,
11
,
30
-
3
minute read

政策企画責任者の佐久間がMHMセミナー2023のパネルディスカッションに登壇しました

Heading
For:
2024
,
05
,
30
-
4
minute read

Robust Intelligence、5月に3つの権威あるサイバーセキュリティ賞を受賞

Heading
For:
AIリスク管理のソリューションの詳細をご紹介します。
無料デモをリクエスト