シンガポール政府、AIのリスク・ガバナンスの指針を公表。ダボス会議で。

· トップ,AI

Section image

このフレームワークは、従来のAIよりも高い自律性を持つ「AIエージェント」がもたらす特有のリスクを特定し、それらに対処するための具体的な指針を示しています。

■ エージェンティックAIにおける新たなリスクの性質

シンガポール情報通信メディア開発庁(IMDA)の文書では、AIエージェントのリスクを以下のように考察しています。

リスクそのものは、従来のソフトウェア(SQLインジェクション等)やLLM特有の問題(幻覚、バイアス、データ漏洩、プロンプト・インジェクション)と共通している。

しかし、エージェントが持つ『自律的な計画立案』や『ツール(外部API)の利用』といった構成要素を通じて、これらのリスクは従来とは異なる、より深刻な形で現れる可能性がある。

■ ガバナンスを支える「4つの主要な柱」

文書内では、リスクを管理するために以下の4つのアプローチを推奨しています。

1. リスクの事前評価とサンドボックス化

エージェントが自律的に動ける範囲や、アクセスできる権限をあらかじめ制限し、設計段階からリスクを最小限に抑え込みます。

2. 人間の有意義な説明責任(Human-in-the-loop)

すべての決定をAI任せにするのではなく、重要な局面で人間が確認・承認するチェックポイントを設け、「自動化バイアス」によるミスを防ぎます。

3. 技術的コントロールとライフサイクル管理

開発から運用までの各段階でベースライン・テストを実施し、許可された操作のみを行う「ホワイトリスト方式」の採用など、厳格な技術管理を行います。

4. エンドユーザーへの透明性と教育

ユーザーに対して「現在AIエージェントと対話していること」を明示し、適切な使い方のトレーニングを提供することで、安全な利用を促します。

■ 動的なガバナンスの必要性

世界中の多くの国が既存の規制をどう適用すべきかの議論が続いている中、シンガポール政府は「AIの進化は速く、今すぐ枠組みが必要である」として、今回の公開に至りました。