成功の鍵その3──リスクを正しく理解してガバナンスを構築せよ

エージェント型AIが抱えるリスクについても正しく理解し、どのようなリスクを取るのかを定めることが必要です。

AIが抱えるリスクを正しく理解することは重要ですが、リスクにばかり注目してしまい、エージェント型AIの導入に二の足を踏んでしまうと、AIの進化のスピードにキャッチアップできず競合他社に後れを取ってしまうことにつながります。

適切なリスクを定めて運用しつつ、定期的なモニタリングにより継続的にルールやガイドラインを改善する仕組み作りが重要です。

オープンAIは、エージェント型AIを安全に利用するために、次のような原則に則った規則を策定し、不正確な挙動や予測できない行動のリスクへの対策を求めています(注)。

1 タスクの適切性を評価する
2 行動範囲を制限する
3 デフォルト動作を設定する
4 透明性を確保する
5 自動モニタリングを行う
6 固有の識別子を付与する
7 人間による制御権を保持する

加えて、AIマネジメントシステムの国際標準規格ISO42001「42001」や、欧州におけるAI規制法「EU AI Act」といった、AI全体の包括的な規制や標準にも考慮しながら、企業に導入していく必要があります。

エージェント型AIのガバナンスには、大きく予防的ガバナンスと発見的ガバナンスの2つが存在します。

①予防的ガバナンス 各組織が独自にエージェント開発を進めてしまうと、企業として統一したガイドラインに基づくエージェント型AIが提供できなくなります。

全社共通の開発用プラットフォームを立ち上げると、共通のガイドラインに基づくエージェント型AIの開発・運用ができるようになり、エージェント型AIの民主化が可能となります。

②発見的ガバナンス エージェント型AIが担う業務の実行結果を集計し、ガイドラインに逸脱したケースから改善ポイントを特定し、エージェントの改修や、場合によってはインプットとするデータから見直しを図り、エージェント型AIによる安全な業務プロセスの実現を目指します。

注: OpenAI, 「Practices for Governing Agentic AI Systems | OpenAI」、2023年12月14日

エージェント型AIと人が協働する未来への第一歩

エージェント型AIは、企業の業務を変えるだけでなく、働き方や意思決定のあり方をも変革します。

そのためには、技術導入と並行して、人材育成で現場力を高め、アーキテクチャで業務設計を最適化し、ガバナンスで安全性と信頼性を確保することが重要です。

これら3つの取り組みを継続的に進めることで、企業はAI時代における競争力を確実に強化できます。

今こそ、AIと人が協働する未来に向けて、一歩を踏み出す時です。