ライフサイクル全体でのAIガバナンスの形成

熊谷:AIガバナンスでもう一つ重要な点として、AIシステムの開発、提供、活用までのライフサイクル全体において、品質を担保しリスクを低減することが挙げられます。

 これまでAI倫理を中心に取り組んできた企業は、開発着手時点での実施可否の判断を重視する傾向にありますが、実務レベルで踏み込んだ対応が必要となります。

AIガバナンスがビジネス変革を加速するKPMGコンサルティング 執行役員 パートナー
熊谷 堅
KEN KUMAGAI
システム開発等に従事した後、外資系コンサルティング会社を経て2002年にKPMGビジネスアシュアランス(現KPMGコンサルティング)に入社。デジタル化やデータに関わるガバナンス、サイバーセキュリティ、IT統制に関わるサービスを数多く提供。現在は、KPMG各国事務所と連携し、KPMGジャパンにおけるTrusted AIサービスをリード。法規制対応を含むAIガバナンス構築プロジェクトを手掛ける。

 EU(欧州連合)のAI規制法、広島AIプロセスの国際行動規範、内閣府・AI制度研究会が公表した中間とりまとめ案などでもAIライフサイクルが取り上げられており、企業がAIガバナンス構築を検討する場合には、不可欠な要素となっています。

 AIモデルを開発した後、AIシステムの提供者が追加学習を行ったうえで、利用者がそのシステムを使用する際には、開発段階と提供段階ではAIの能力が変化し、それに伴いリスクも変わる可能性があると指摘されています。

 運用段階でのリスクに適切に対処するためには、開発段階と提供段階でのリスクを把握する必要があり、利用者がAIを不適切に使用することで、開発者や提供者が予測していないリスクを顕在化させる可能性もあります。

 この問題は実務上非常に複雑で、AIシステムが一般的なITシステムとは異なる特徴を持つためであるといえるでしょう。

 これゆえ、ライフサイクルの各フェーズでそこに関わるプレーヤーの役割と責任を明確化し、各フェーズで実施されたトレーニングやテスト、AIの性能と限界に関する評価結果などの情報を共有する必要があります。それがAIの透明性や安全性を高め、リスクを抑制することにつながるからです。まずは自社のAIライフサイクルを定義し、フェーズごとのプレーヤーの役割と責任を明確にして、情報開示のルールを確立する――。このようなガバナンスモデルを定着させることが重要です。

島田:情報開示の観点では、特に海外でAIガバナンスの情報開示に関する要求が投資家から強まっており、その潮流は近い将来、日本でも影響を及ぼす可能性があります。柔軟かつ迅速な見直しを行うアジャイルガバナンス、ライフサイクル全体を通じたAIガバナンスの形成についての取り組みをいまから開始することをお勧めします。

 最近では、汎用型の基盤モデルを使って特化型のモデルを開発する階層型の開発も広がっています。外部の基盤モデルに関連するリスクでも、特化型モデルの開発主体がリスクを負うことになると考えられるので、ガードレールや利用ルールが不可欠です。企業がAIシステムを利用する段階で読み込ませる自社データについてもデータの識別と把握を行い、リスク管理の責任を明確にする必要があります。