講演会「AI規制はすべてリスクベースであるべきか?:AI規制法のリスクベースアプローチの論理と限界」
【主 催】早稲田大学比較法研究所
【共 催】早稲田大学法学部
【日 時】2025年1月20日(月)18:00-19:00
【場 所】早稲田キャンパス 8号館219会議室
【報告者】トビアス・マーラー(オスロ大学教授)
【世話人】江原 勝行 (比較法研究所研究所員、早稲田大学法学学術院教授)
参加者:8名(うち学生3名)
2025年1月20日(月)、早稲田大学にて講演会「AI規制はすべてリスクベースであるべきか?:AI規制法のリスクベースアプローチの論理と限界」が開催されました。講演者のトビアス・マーラー教授(オスロ大学)は、情報技術法の研究者であり、EUのAI規制法におけるリスクペースアプローチについて講演されました。
マーラー教授は、まず、EUのAI規制法の背景とリスクベースアプローチについて説明されました。AI規制法が誕生する以前は、複数のAI規制のアプローチが混在していましたが、それらを統合するものとしてリスクベースアプローチが採用されました。AIを技術的に定義するのが極めて困難であるため、AIがもたらすリスクに着目するものです。リスクベースアプローチでは、AIが人々の基本的権利に及ぼすリスクに基づいてAIを分類し、リスクレベルごとに適切な規制がなされます。具体例として、迷惑メールをフィルターするAIは低リスクであるため規制の必要性は低いが、AIによる自動運転は高リスクに分類されるためより厳しい規制の対象となります。このような分類は特定の目的を有するAIの規制に適しています。しかし、ChatGPTのように汎用性のあるAIに関しては、後者の構造的なリスクを考慮したリスク評価が必要とされるため、AI規制法に別のカテゴリーが設けられました。このように、リスクの計算には、量的だけではなく、質的な評価—リスクのインパクトや基本的権利への侵害の態様—を考慮しなければならないとマーラー教授は指摘しました。
全てのAIに関する法がリスクベースアプローチを採用するべきかという問いに対して、様々なリスクベースアプローチをツールとして使用し、AI規制法を始めとするそれぞれの法のコンテクストに最適なものを活用していくことをマーラー教授は提唱しました。リスクベースアプローチの種類として、例えば、GDPRにおけるデータ保護のリスクアセスメントの仕組みや上記のAI規制法のリスク分類が挙げられました。
質疑応答では、質的なリスク評価の技術的な面について質問が寄せられ、議論が深められました。
文:ドイル 彩佳(早稲田大学比較法研究所 助手)