国際情報学部

国際情報学部 学部長・教授の平野晋が〈情報法制学会〉研究大会において、「自動運転車のトロッコ問題と〈設計上の欠陥〉」を報告しました

2021年12月14日

国際情報学部学部長・教授 平野晋

2021年12月11日、国際情報学部 学部長・教授の平野晋が〈情報法制学会研究大会において、「自動運転車のトロッコ問題と〈設計上の欠陥〉」を報告しました。

国際情報学部学部長・教授 平野晋の専門分野はアメリカ法、製造物責任法、及びサイバー法です。著書に『アメリカ不法行為法』や『ロボット法』等があります。
また、平野はこれまで、国内においては総務省の「AIネットワーク社会推進会議」や内閣府の「人間中心のAI社会原則会議」に、国外においてはOECD「AIGO:AI expert Group at the OECD」(AI専門家会合)に参画しており、AIの開発や利活用に関する議論に貢献し、かつ自動運転のいわゆる〈派生型トロッコ問題〉も国際会議や法律雑誌にて紹介してきました。
詳細はこちらのページをご覧ください。
また先月に平野は、〈情報ネットワーク法学会〉の研究大会において、「自動運転の派生型トロッコ問題の仮想事例研究」をテーマにした遠隔による基調講演も行いました。

今回の〈情報法制学会〉研究大会における報告では、製造物責任法研究の世界的第一人者であるジェームズ・A. ヘンダーソン, Jr.教授(コーネル大学ロースクール)から指導を受けた平野が修得して日本にいち早く紹介した欠陥概念が、その後、日本の判例・裁判例でも採用されるようになった事実を指摘。
その上で、特に〈設計上の欠陥〉基準を、いわゆる〈派生型トロッコ問題〉又は〈ジレンマ状況〉に当てはめる分析を行いました。
なお〈派生型トロッコ問題〉又は〈ジレンマ状況〉とは、例えば自動運転車が後突されて、ブレーキが間に合わずハンドル操作によって(1)通学中の小学生5名の列に進路を採って小学生が死亡するか、又は、(2)側壁に進路を採って自動運転車の乗員一名が死亡するような、何れかの犠牲を生じさせる他には衝突進路が存在しない場合を(アメリカでは「choice of evils」とも)いいます。

ところで〈設計上の欠陥〉基準は、概ね功利主義的に解釈されていますが、アメリカの学説ではイマニュエル・カントの学説に基づく[絶対的]義務論的解釈を陪審員が採り得るという指摘もあります。
しかし後者の解釈を採った場合には、一方の命を救う為に他方の命を「道具」とすることが[一切]許されないと解釈され得る為に、選択肢の(1)と(2)の双方共に〈設計上の欠陥〉と解釈されてしまって現実的に機能しないという問題を、平野が明らかにしました。

なお今後の研究の必要性として平野は、従来の製造物責任法では、安全性等に対する消費者やユーザの期待が〈設計上の欠陥〉判断上の考慮要素として重視されてきましたが、今後は、上記(1)の歩行者のような第三者(アメリアでは〈bystanders〉等と呼ばれます)の安全性に対する期待も考慮すべき点を挙げました。