【法学会主催】第66回模擬裁判(民事)開催のお知らせ
AIと民事法の交差点―完全自動運転車の責任
- 日 時:2020年12月8日(火)13:00~
- 会 場:YouTube Liveによる動画配信(配信はこちらからご覧ください。アーカイブ閲覧可能)
※配信する動画を撮影したり録画・録音することはご遠慮ください。 - 主 催:早稲田大学法学会(構成:民法研究会)
- 協 力:早稲田大学次世代ロボット研究機構AIロボット研究所
- 配信協力:早稲田大学放送研究会
技術革新を背景としてAIが徐々に浸透しつつある現代社会ですが、AIに関する民事法上の問題については、未だに法的な整備が不十分なままとなっています。そこで今回は、近未来におけるAIを実装した自動運転車にまつわる事例を想定した模擬裁判を行い、これからの社会におけるAIをめぐる民事法上の課題について所謂トロッコ問題から一歩踏み込んで考えます。また、AI研究の第一人者である尾形哲也氏(理工学術院教授・次世代ロボット研究機構AIロボット研究所所長)とのディスカッションも行います。
【事案の概要】
2029年10月31日、AIを搭載したレベル4の自動運転車が高速道路を走行中に、直前の路面上に落石を検知し、落石への衝突を避けようとして車線を変更したが、大型バイクに衝突し、大型バイクの運転手が死亡した。
事故の原因は、AIが大型バイクを「人間が運転する大型バイクである」と認識できなかったからであると考えられる。もし、人間が運転する自動車であれば、とっさの判断としてブレーキをかけて停車しようとしたはずであるが、その場合ブレーキをかけても間に合わない可能性が高く、自動運転者の運転手が重傷を負っていたと考えられる。
【裁判の争点】
AIは、開発者の手を離れたあとは自ら学習を行うことになります。それは、自動運転車に実装されるAIも同じです。もし、自動運転車に実装されたAIが、誤った学習結果に基づいて暴走し事故を起こしたとしたら…。その責任は誰が負うのでしょうか。誰も責任を問われないことはあり得るのでしょうか―――。
ポイント①:AIの動きは、開発者にも予想できないか?
AIは、データを丸暗記するのではなく、データを学習する中でその結果を分析、法則化し、ある事象の特徴をつかんでいきます。この「汎化」による結果も一様ではなく、開発者にもAIがどのような動きをするのか完全に予想することはできません。
ポイント②:AIは安全?危険?
「自動運転車は人間が運転していれば起こさないような間違いを起こすのだから、本来自動車が有すべき安全性を備えているとは言えず、欠陥がある」という考えと「自動運転車はヒューマンエラーによる事故を劇的に減らしており、人間が運転する自動車よりも明らかに安全で有用である」という考え、どちらも成立しそうです。
あなたも、この模擬裁判を通して、これからの社会におけるAIをめぐる民事法上の課題について、一緒に考えてみませんか。
皆さんの積極的なご参加をお待ちしています。
- 問合せ:[email protected](法学部事務所庶務係)