AIは企業のビジネス活動や提供する製品・サービスに組み込まれ、社会実装が急速に進んでいる。一方で、AIに対するさまざまな懸念も高まっており、信頼性・安全性を担保したAIの開発・活用を支える「AIセキュリティ」の構築が急務だ。企業の経営層はAIセキュリティをどのようにとらえ、舵取りすべきか。KPMGコンサルティングの2人の専門家が、その疑問に答える。
AIセキュリティが
なぜ必要か
編集部(以下青文字):企業がAIを活用するうえで、特に経営層が配慮すべきとされる「AIセキュリティ」とはどういうものでしょうか。

熊谷 堅 KEN KUMAGAI
システム開発に従事した後、外資系コンサルティング会社を経て2002年にKPMGビジネスアシュアランス(現KPMGコンサルティング)に入社。デジタル化やデータに関するガバナンス、サイバーセキュリティ、IT統制に関わるサービスを数多く提供。現在は、各国のKPMGメンバーファームと連携し、KPMGジャパンにおけるTrusted AIサービスをリード。法規制対応を含むAIガバナンス構築プロジェクトを手掛ける。
熊谷:AIが企業活動や製品・サービスに組み込まれる中で、その開発から活用までのライフサイクル全体で信頼性、安全性等を担保し、リスクを低減することが求められています。そのための組織的・技術的な枠組みは「AIガバナンス」と呼ばれ、AIセキュリティはその重要な構成要素です。つまり、AIセキュリティは、AIガバナンスの一部としてとらえていただければと思います。
ここでいうAIセキュリティとは、サイバー攻撃の多様化・巧妙化に対抗するためにAIを活用するという意味ではなく、AIモデルやAIシステムのセキュリティを担保することとご理解ください。AIセキュリティは、従来のサイバーセキュリティとは異なる対応を考えていかなければなりません。どのような脅威があるのか、リスクを具体的に識別し、適切な対策を講じる必要があります。
サイバーセキュリティとAIとの関係は、世界的に活発な議論が行われており、これまで先進国や国際機関が定めてきた原則や指針等には、必ず盛り込まれているテーマです。社会的な影響も広く、専門家の間でも関心の高い領域です。
薩摩:情報セキュリティの3大要素である「機密性」「完全性」「可用性」の考え方は、AIセキュリティにも適用できます。簡潔に言えば、機密性は、AIが学習・出力した情報からの個人情報や企業秘密などの漏洩を防ぐこと。完全性は、AIが不完全であるがゆえの誤った情報の出力や誤作動を防ぐこと。可用性は、AIシステムが他のシステムと連携する際に発生・波及するリスクを抑えることです。
AIのライフサイクル全体において、この機密性、完全性、可用性をいかに担保するかという視点からスタートするとよいでしょう。
日本企業は、AIのリスクをどのように認識しているのでしょうか。
熊谷:AIからの出力の正確性、AIシステムの信頼性に関して最も懸念していると思われます。KPMGの「サイバーセキュリティサーベイ」でも、AI導入リスクとして「アウトプットの正確性」が最も多く挙げられ、「プライバシー侵害」「アウトプットへの偏見」が続きます。「サイバーセキュリティ」がそれに次ぐ結果となっていますが、サイバー攻撃によって正確性や信頼性を毀損することになり、AIに対するサイバーセキュリティの重要性をあらためて認識する必要があります。
サイバーセキュリティはデータ窃取や漏洩の被害を想起しがちですが、誤作動や意図しない結果の出力など、人が識別できないように変えられてしまうといったAI特有のリスクと対策に着目すべきでしょう。米国をはじめ海外の先進的な企業と比較すると、日本企業のAIセキュリティへの関心は高くないと感じています。