日本比較法研究所

2025年度 講演会・スタッフセミナー 概要

テーマ:サプライチェーン規制の法と経済学

コルヒ教授の講演は、国際的なサプライチェーンにおける問題を、法と経済学のアプローチを用いて分析し、欧州の企業持続可能性デュー・ディリジェンス指令がこれらの問題を解決できるのか、またどの程度のコストで解決できるのかを分析するものであった。一つの商品(例えばTシャツ)であっても、その製品が出来上がって市場で販売されるまでの過程は、国際的な生産分業・流通を前提にしている。そこには、発展途上国での劣悪な労働環境あるいは自然環境の破壊といったダークサイドが存在する。このダークサイドをめぐる問題は、単なる道徳的・倫理的な問題ではなく、経済的な問題である。
 こうした問題について、本講演は、経済学的な分析、国際法的な視点からの法規制の可能性について意欲的な仮説が示された。
 講演を踏まえて、行政法的視点、労働法制の視点、経済法的視点等々をめぐって、参加者との間で予定時間を超えて活発な議論が行われた。

 

テーマ:韓国における仮釈放なしの終身刑導入をめぐる議論の状況

韓国における死刑問題に関心をもつ多くの研究者と実務家を集めて開催された。安氏は、30年にわたり、韓国が死刑制度を廃止せず、存置したままで、その執行のみを行わないという方法(いわゆるモラトリアム)をとってきたが、その過程で、死刑を正式に廃止した上で暫定措置として仮釈放のない終身刑制度を設けるという法改正が試みられたが、何度もそれが死刑廃止を反対する世論により妨げられてきたこと、近年では、死刑を存置したまま(つまり、執行を行わない状態)をそのままにした上で、仮釈放のない終身刑制度を設けようとする重罰化の主張も有力に展開されていることなど、きわめて興味深い韓国の現状について説明された。とはいえ、死刑の執行を再開すべきだとする意見は決して強くなく、執行の再開には至らないであろうという見込みを安氏は示された。質疑においては、死刑問題に関心をもち、とりわけ日本でも死刑の代替刑としての重無期刑を提案する日弁連の会員が多数参加していたことから、韓国における今後の死刑廃止の見込みや、これまで韓国で提案されてきた終身刑制度の内容などをめぐり、盛んな質問が出され、安氏はそれらに対して明快な答えを与えておられた。講演会は、当初の予定を越えて、2時間ほど行われたが、それは参加者の関心が強いことを示すものであった。

 

テーマ:韓国のオンラインプラットフォーム犯罪に対する刑事法的対応

サイバー犯罪やオンライン犯罪に関心をもつ一線の研究者と、警察関係者が参加し、質疑においては高いレベルの議論が行われた。講演後には、関心をもった警察関係者が残り、雑誌への投稿を求めるといった光景が見られ、それは、安氏の講演がそれだけ強い関心をもたれたことを示すものであった。安氏は、新しい観念である「オンラインプラットフォーム犯罪」の定義と概念内容、類型化からはじめられ、伝統的なサイバー犯罪の概念とも異なる、その幅広く、多彩な内容について説明された。次に、それを取引型犯罪、情報拡散型犯罪、人格侵害型性犯罪に分けてそれぞれの特色を説明し、さらに現状と動向について統計資料を用いて紹介された。韓国はこれらの犯罪の規制に積極的であり、ディープフェイクに対する処罰など、日本でも大いに参考になる規定を多く制定している。今後、安氏の論稿が比較法雑誌に紹介されれば、日本の議論にも大きな刺激と影響を与えることが予想される。

 

テーマ:AIにおけるプライバシー規制の試み

今回のセミナーは、アメリカ合衆国におけるPrivacyと技術に関する法学研究の第一人者Woodrow Hartzog教授をお迎えして、2025年4月21日に対面とオンラインを併用して開催された。当日は延べ20名近い参加者を得て、活発なディスカッションがなされたが、ここではその概要をご紹介する。
 セミナーは約1時間の講演とその後のディスカッションからなっているが、Hartzog教授は最初に近時のAIの発達が社会に与えている状況について概観することから講演を始めた。
 一方では明るい側面をもつAIであるが、他方では既に多くの企業がAIを利用して活動しており、その結果、現実的なプライバシー侵害リスク等の害悪が生じている。しかし、現行の法システムができることは決して多くない。これは、法システムが、(1)軽微な損害を無視する、(2)実体よりも手続を重視する、(3)技術的中立性を装う、といった特徴があることに起因する。そこで、新たなチャレンジが必要であるとの視点から、教授は、いくつかの具体的課題を提示して議論を展開する。
 1つめは、AIが学習するために行う大規模なデータ取得(スクレイピング)の問題である。AIは、ウェブ上のデータをスクレイピングして学習に利用するが、これは個人情報取扱についての公平原則(fairness doctrine=情報主体の合理的期待を超えて個人情報を扱ってはならない)を侵害し、自己情報コントロールを失わせる。また、同意原則の形骸化、透明性の要請、利用目的の特定、二次利用の制限、必要最小限のデータ収集・利用、第三者提供、データセキュリティ等々の個人情報保護に係る全ての原則と衝突するのである。AIの学習目的の大規模データ収集は、これまで企業活動が遵守してきた個人情報保護の枠組みを破壊する傾向がある。この点に留意する必要があるのである。
 2つめは、公表されている情報が本当に自由に使いうるものかという問題である。時に既に公表されている情報には、プライバシーの利益は認められないというものがあるが、これは、道徳的にも法的にも誤りである。公共空間にある監視カメラによって撮影された顔画像について、人の行動追跡に用いることに制限があるのと同様に、ウェブ上から取得されたデータを同じように用いるのにも制限が必要である。つまり、データ収集・利用の利益とプライバシーの利益の調整をいかに図るかを改めて考える必要があるのである。

そこで教授は、4つの原則に基づく調整を提案する。

(1) 害悪に対する合理的リスクの原則:スクレイピングされた個人情報の収集・利用・提供は、個人、不利な立場にあるグループ及び社会に「不合理な害悪リスク」をもたらすものであってはならない。

(2) 比例的利益の原則:スクレイピングされた個人情報の収集・利用・提供は、個人、不利な立場にあるグループ及び社会に、リスクを上回る十分な利益を提供し、スクレイパーへの利益と比例するか、またはそれを超えるものでなければならない。

(3) 手続原則:スクレイピングされた個人情報の用途を決定するプロセスは、公正、公開、説明責任、代表性、公平性、および熟慮を伴うものでなければならない。

(4) 保護原則:スクレイピングされたデータは、プライバシー法の下で他の個人データと同様の保護を受けるべきであり、特定の保護措置が実行不可能である場合を除き、その保護が適用されるべきである。

 このようにして、Hartzog教授は、これまで見過ごされていた公共空間たるWebにあるデータをAIがスクレイピングする場合に生じる課題について、その問題構造を明らかにし、かつ、解決に向けた現実的な方向性を提案したのである。とりわけその提案に際して、教授が「我々にはreconciliationが必要である」とされたことは、極めて重要な指摘である。企業と個人だけでなく、国家と個人、AIと人、技術と法といった様々な間でのreconciliationを含意する教授のコンセプトに対して、調整、調和、和解等どのような訳語を与えるべきかは大変悩ましい問題であるが、今後益々重要となる問題提起と解決への方針示唆であったといえよう。