比研主催講演会「EUにおけるAI規制:新AI規則の挑戦と今後の可能性」
日 時:2024年6月7日(金)16:00-18:00
場 所:早稲田キャンパス 8号館303会議室
主 催:早稲田大学比較法研究所、早稲田大学法務研究科
共 催:早稲田大学法務研究科、基盤研究(A)「グローバル立憲主義に基づくグローバル秩序構想の探求と制度論の構築」代表者:須網隆夫(早稲田大学教授)、早稲田大学EU研究所
講演者:アレクサンダー・ショッパー(インスブルック大学教授)
世話人:須網 隆夫 (早稲田大学法学学術院教授、早稲田大学比較法研究所研究所員)
参加者:42名(うち学生13名)
2024年6月7日(金)、早稲田大学にて講演会「EUにおけるAI規制:新AI規則の挑戦と今後の可能性」が開催されました。今回は、インスブルック大学のアレクサンダー・ショッパー教授をお招きして、EUにおけるAI規制の経緯と課題について報告・議論が行われました。
まず、アレクサンダー・ショッパー教授によりEUにおけるAI規制の背景と現状、AI規則の主な内容について報告が行われました。EUにおけるAI規制への動きは、2018年6月に欧州委員会により「人工知能に関するハイレベル専門家グループ 」が設置されたことで始まります。2019年4月には、「信頼できるAIに関する倫理ガイドライン」が発表され、拘束力の無い7つの倫理原則が示されました。しかし、当ガイドラインは拘束力を持たず、その実施を確保するために法的拘束力を持つAI規則の制定がウルズラ・フォン・デア・ライエン欧州委員会委員長の下で求められました。その後、欧州委員会は2021年4月に新たな規則を提案し、2023年12月には欧州委員会と理事会の3つの共同立法機関がAI規則の制定について合意に達しました。AI規則の正式な公布はまだですが、2024年4月13日には欧州議会の立法決議が行われ、5月12日には欧州理事会でも採択されています。
続いて、AI規則の定義と適用範囲について焦点が当てられ、主にAIシステムの分類と規制態様について説明されました。新たに設けられたAI規則の第1条1項は、「域内市場の機能を改善し、人間中心の信頼できるAIの導入を促進することであり、同時に、域内におけるAIシステムの有害な影響に対して、健康、安全、民主主義、法の支配、環境保護を含むEU基本権憲章に謳われている基本的権利の高水準の保護を確保し、イノベーションを支援すること」を目的としています。AI規則には110を越える条文と13の章が存在します。
AI規則の目的上、「AI」を定義する必要がありましたが、法律上は現在では「AIシステム」という用語が用いられています。本規制法第3条1項によれば、「AIシステム」とは、「様々なレベルの自律性で動作するように設計され、配備後に適応性を示す可能性があり、明示的または暗黙的な目的のために、物理的または仮想的な環境に影響を与えることができる予測、コンテンツ、推奨、決定などの出力を生成する方法について、受信した入力から推測する機械ベースのシステム」とされています。最終的な条文では、AIをより単純なソフトウェアシステムと区別するため、経済協力開発機構(OECD)が提示したように、データを認識しその出力に基づいて行動することによって環境と相互作用するAIモデルを備えたシステムを指すものとされています。AIシステムはアプリケーションのAIモデルを開発するために必要なハードウェア、ソフトウェア、ユーザーインターフェースなどの総称を意味する一方で、AIモデルはそれ単体ではAIシステム全体の形成はできず、特定のタスクを実行するために調整されたアルゴリズムや数学的モデルなどを指します。
AI規則第2条では本規則の適用範囲が定義されており、AIシステムをEU域内の市場に提供する事業者に対しては、EU域内に所在しているか第三国に所在しているかに関わらず適用対象とされ、EU域内に存在するAIシステムの利用者も適用対象とされます。例えば日本の事業者がインターネット経由でEU域内の国々がアクセス可能な履歴書を評価するAIプログラムを提供しており、オーストリアの企業がこのプログラムを使用して企業への応募書類を評価する場合、AI規則第2条(2) (a)の「AIシステムのEU市場への流通」に該当します。本規則が適用されない例外として、軍事・防衛目的のみに使用されるシステムや、研究および技術革新のみを対象として使用されるAIシステムなどが挙げられます。なお、多くの事業者に包括的に求められる要件は、AI規則第4条に基づくAIリテラシーの確保であり、AIシステムの提供や運営に携わる従業員に十分なレベルのAIを扱う知識と技術の獲得を求めています。
AI規則の適用対象となるAIシステムはそのリスクに応じて分類されます。具体的には、「最小限あるいはリスク無し(例:ビデオゲームなど)」、「限定的なリスク(例:AIチャットなど)」、「高リスク(例:生体認証などの特定の製品)」、「許容不可能(例:予測的警察活動などの人間の行動を操作する影響を持つAIシステム)」が挙げられます。例えば「限定的なリスク」に該当する場合はラベリングなどの透明性を確保する措置が求められますが、「高リスク」に該当する場合は市場に提供される前に監督組織に許可を得る必要があり、「許容不可能」に該当するものは禁止対象となります。規制の一環として、EUは、ChatGPTのような汎用AI(GPAI)モデルの使用に特定の要件を課すことも決定しています。例えばAI規則第53条では、リスクの分類に関わらず汎用AIモデルのトレーニングや評価結果などを含む包括的な技術的文書の作成、当該モデルが含まれたシステムを提供する下流事業者が利用可能な情報や文書の整備、著作権法の遵守、AIモデルの訓練に用いられたコンテンツの概要を公表することなどが義務付けられます。
また、EUにおけるAI規制のために新たに設けられたガバナンスの仕組みと、AI規則の規定に違反した場合の対応、生じた被害に対する法的救済措置について概説されました。AI規則の下では、中心的な役割を担う欧州委員会に加えて第64条に規定されているAI事務局が行動規範の策定およびAI規則の実施・適用の監督を行います。AI規則第65条に規定されているAI委員会は、欧州員会とその加盟国への助言と支援を行うとともに、各国当局の調整を担い、AI規制が統一的に行われるように働きかけます。また、これらの機関を支援する機関として、AI規則第67条に基づきアドバイザリー・フォーラムと、第68条に基づき科学パネルも設立され、国際的な市場監視活動の支援や、技術的な専門知識に関する助言が提供されます。
AI規則の違反に対しては、特にEU域内で禁止されたAIシステムが用いられた場合、最高3500万ユーロまたは当該違反企業の全世界年間売上高の7%に当たる罰金が科される場合があります。AI規則上の義務違反に対しては、最高1500万ユーロまたは企業の年間総売上高の3%の罰金が科される場合があります。さらに、不正確あるいは誤解を招くような情報が事業者側から監督組織や各国の所轄官庁に提供された場合も最高750万ユーロあるいは当該違反事業者の年間総売上高の1.5%の罰金が科される場合があります。これらの罰金に関しては、中小企業や新興企業が違反した場合には経営規模などを踏まえより合理的な上限が設けられます。なお、AI規則第85条では、AI規則の規定に違反していると信じるに足る理由がある場合に、個人または法人が市場を監視する当局に苦情を申し立てる権利が認められています。
最後に、EUにおける新たなAI規制の長所と短所が比較検討され、AI規制に向けた今後の見通しについて説明が行われました。AI規則は、EU域内での信頼できるAI技術の利用促進や新たな国際規範の策定などに貢献しています。その一方で、複雑な規制メカニズムやAIシステムの広範な定義などに起因する法的不確実性の問題も存在します。
また、中小企業にとっては許可申請や運営管理にかかるコストにおいて大企業と比較して不利になる場合があり、AI規則第55条には支援や手続き手数料の減免が規定されていますが、これらは限定的なものにとどまります。今後の予定として、AI規則はEUの官報に記載されてから20日後に発効しますが、AI規則は発効から2年後に適用開始となる予定です。ただし、禁止されているAIシステムの提供やAIリテラシーに関する事項は、規則の発効から6か月後、行動規範は9か月後、ガバナンスや制裁に関する規定は12か月後に適用開始になるなど、各規則は段階的に適用開始になる予定です。このように時差が設けられることで、AI規則を遵守するための準備を行う時間が提供されています。
その後、出席者と登壇者との間で質疑応答が行われました。質疑応答では、EUにおけるAI規則の制定は世界共通の普 遍性のある規制を促すものであるのか、様々な用途で活用可能であるAIの危険性の分
類は実際には困難ではないのか、許可申請や管理コストの点で不利である中小企業側からの反発は存在しないのか、といった様々な質問が挙げられ、活発な議論が行われました。
(文:小阪真也・比較法研究所助教)