高リスクAIシステムとは何か?EU AI Actにおける分類基準と企業が取るべき対応
- REIKO TOYOSHIMA
- 9月28日
- 読了時間: 3分
AI技術の進化に伴い、私たちの生活やビジネスにおける活用が広がっていますが、その一方で、AIが誤った判断を下した場合の影響も無視できません。こうしたリスクに対応するために、EU(欧州連合)は「EU AI Act(欧州(EU)AI規制法)」を制定し、その中でAIシステムをリスクの高さに応じて分類しています。この記事では、その中でも最も注目される「高リスクAIシステム」について、具体的な内容と企業が取るべき対策についてわかりやすく解説します。
高リスクAIシステムの定義と背景
「高リスクAIシステム」とは、個人の安全や基本的人権、または公的利益に対して重大な影響を及ぼす可能性のあるAIシステムを指します。EU AI法では、リスクベースのアプローチを採用しており、「最小リスク」「限定リスク」「高リスク」「禁止AI」の4段階に分類されます。高リスクに該当するものは、特に厳格な規制と遵守義務が課されるのが特徴です。
このような分類が導入された背景には、AIによる差別やプライバシー侵害、あるいは不当なアルゴリズム判断による被害がすでに世界中で報告されている現状があります。EUはこれを未然に防ぎ、AIの信頼性と透明性を確保することを目的に法整備を進めているのです。
高リスクに分類される具体例
EU AI Actでは、以下のような用途のAIシステムが「高リスク」に分類されています。
- バイオメトリック識別(顔認証など)
- 重要なインフラ(交通・電力など)の運用に関わるAI
- 教育や職業訓練における評価システム
- 雇用に関する意思決定支援(採用判断など)
- 信用スコアリングや金融リスク分析
- 裁判や行政判断を支援するシステム
これらの分野では、AIが誤作動を起こした場合、個人の人生に重大な影響を与えかねません。そのため、使用前の審査や透明性の確保、ユーザーへの情報提供など、厳しい条件が課されるのです。
高リスクAIシステムへの対応
この「高リスクAIシステム」への対応はとても重要です。AIを活用する企業が新たなサービスを立ち上げる際、そのAIが高リスクに該当するかどうかを事前に精査し、必要な申請やドキュメント整備をすることが求められます。例えば、AIを用いた採用支援ツールを導入する企業は、個人情報保護や雇用差別のリスクに配慮した運用ガイドラインを提供することなどが考えられます。
もし自社で導入しようとしているAIが高リスクに該当する可能性がある場合、以下のようなステップが必要になります。
1. 該当するリスク分類の確認
2. 必要な文書(リスク評価、技術文書など)の準備
3. CEマーキング(EU域内で販売される製品がEUの基準を満たしていることを表示するマーク)取得などの手続き
4. ユーザーへの説明義務や監視体制の整備
まとめ
「高リスクAIシステム」は、私たちの社会に大きな影響を与える可能性があるからこそ、EU AI法の中でも特に厳格な規制が敷かれています。AIを活用する企業にとっては、ただ技術を導入すればよいという時代は終わり、法令順守や社会的責任を果たす姿勢が問われています。
法制度の変化に柔軟に対応し、必要な対策を講じるためにも、計画的にAI導入を進めることが今後ますます重要になっていくでしょう。
