ELSIセンター

第3回ELSIコミュニティアクティビティ報告

2022年10月27日

 第3回コミュニティアクティビティは、第1回、第2回で参加者の皆様が課題と感じていることが見えてきた「社会的受容の難しさ」について掘り下げる場として開催しました。以下に報告します。

【日時】2022年10月12日(水)13:30~15:00
    オンライン開催
【テーマ】社会的受容の難しさ
【プログラム】
 話題提供:中央大学理工学部教授 寺本剛
      「社会的受容の難しさ -専門家と非専門家のギャップ-」
 フリーディスカッション

 第1回、第2回のコミュニティで、参加企業の方々より、「法的に問題ない使い方をしていても批判されるのは、つらいものがある」などのコメントが多く聞かれた「社会的受容」の問題――この問題を掘り下げるべく、最初に、中央大学の寺本剛が話題提供を行いました。寺本は、倫理学を専門とする立場から、最近は科学技術と社会にかかわる課題に携わっています。話題提供の要点は、以下のとおりです。

■ELSI問題(倫理的、法的、社会的課題)は、「飼い慣らされた問題」でなく「厄介な問題」である。

  • ・「飼い慣らされた問題」とは「解決すべき問題が何か、どう取り組んだらよいかが明確な問題」であり、「厄介な問題」は「多様な価値観を持ったアクターが関わり、正解は人によって異なり、問題設定や問題の構造化が本質的に困難な問題」である。
  • ・「厄介な問題」は、1973年にRittelとWebberが提唱して以来、現在まで、多くの学者が地道に取り組みを続けるほど、厄介な問題である。

■専門家と非専門家の間のギャップの原因

  • ・知識の非対称性:非専門家は「専門家が理解していること」が何かは、分からない。(専門知のブラックボックス的性質)
  • ・ゼロリスク意識:人から強要される非自発的リスクに対して、特に強くなる。

■対策

  • ・「リスクに対するベネフィット」「リスク削減に要するコスト」が分かると、リスク削減に置く価値が低減する傾向がある。したがって、これらについての十分なコミュニケーションが有効。
  • ・科学技術の知見に基づき、多様な選択肢を包み隠さずに提案する態度(=『公正な仲介人』)が重要。これにより、情報に対する信頼が得られ、社会全体が専門家の意見を優遇することが期待される。

 この話題提供を受け、企業、政策、学術研究の各現場にかかわる立場から、多様な質問、感想、意見が次々と出されました。

■相互理解のギャップについて

  • ・専門家と非専門家の間のギャップだけでなく、専門家同士のギャップもあると思う。これも同じ考え方でよいのか?
  •  →(寺本)専門家同士の場合でも、知識の非対称性による力関係から齟齬が生まれることについて、同じ考え方が当てはまる。
  • ・専門家と非専門家のギャップ:知識の非対称性⇒自分たちが理解していることを自称専門家が理解していない可能性があるのではないかという不信感がギャップを埋める障壁になるのでは?
  • ・専門家と非専門家のギャップに年齢はどう影響するのか? 若い人はすんなり受け入れ、歳を取った人はなかなか受け入れられないように思う。年を取るとリスクを抑える思考をする?  AIでいうと過学習というのがあり、新しいデータについて精度が落ちる。もしかすると精度が落ちた答えを出したくないから避けたがるのかもしれない。

■社会的受容性があるか/広めてよいかの判断、相談

  • ・社会的受容性があるかどうかを判断する基準がないとやりにくいと感じる。
  • ・法律的な問題は顧問弁護士などに相談できるが、社会的受容性に関することを諮れる人がいない。
  • ・現場でAI(や5G、6G)で何でもできるので、サービス企画を誰でもできるようになり、厄介な問題を誰もが生み出し、サービスを企画する企業が一意に答えを出しにくくなってきた。以前はサービス企画会社が圧倒的な情報量を持っていて、それなりに正しい答えを出せた。それで、パートナリングになってきている。今後、サービス企画会社の民主化が進むのか、それに対し、社会はどう行くのか?

といった質問があり、寺本より、

  • ・一般的な公平性の観点を、社会学、哲学など、複数の専門家に聞くことで、それなりにバランスの取れた穏当な指針が見えるのではないか。
  • ・AIはおそらく知らないうちにあたりまえになっていくというような広がり方になるだろう。リスクにまつわる厄介さも広がって取り返しがつかなくなるので、何か問題があった時には大々的な問題になる。そうなると対処療法的な対応しかなく、とめられなくなる。

とのコメントがありました。本学国際情報学部の教員からは、

  • ・専用AIを精密につくりながら連結させた「汎用AI」の研究が進んでおり、他の意図のAIとの連結により、想像以上に他の要素を考え出す可能性がある。我々はどのように広がるかを考える必要がある。これも、「広がってからでは間に合わない問題」かもしれない。

とのコメントが出されました。

 以上の議論から、専門家と非専門家の間のギャップを埋める方策や、AIや新技術を広めてよいかの判断のありかたを考える際に、「リスクに対する考え方」という要素が重要であることが見えてくるのではないでしょうか?

■「リスクに対する考え方」について
 日本人のリスク意識について、

  • ・寺本が紹介した「リスクに対するベネフィットやリスク削減に要するコストについてのコミュニケーションにより、リスクを受け入れられるようになる」という、2004年の中谷地の研究当時と比べ、今の日本社会は高齢化や階層の固定化等の要因により硬直化して、ゼロリスク意識が高まっていないか?

との指摘がありました。これに対し、寺本は、

  • ・今のリスクに対する公衆の考え方が保守的か、そうでもないかの感じ方は、人それぞれなので、何とも言えないが、「自分たちがリスクに対し保守的かそうでないか」を見極める目を持つべきで、コロナをきっかけに、それを持てるようになってきたのではないか

と述べました。また、本学国際情報学部の教員から、

  • ・既に就活面接でAI面接を受けたとゼミ生が言っていた。もう広がっているリスクの一つかもしれない。人生を変える程の事柄にAIを使って良いのか、考えさせられる。

とのコメントもありました。「(たとえ可能性は低くても)起こったときの影響が大きいリスクの重大さ」についての問題提起と言えるかもしれません。

■厄介な問題への挑戦
 「リスクに対する考え方」がかかわる問題や、専門家と非専門家の間のギャップの問題は、実に「厄介な問題」と言えるでしょう。厄介な問題への取り組み方についてのコメントとしては、以下のようなものがありました。

  • ・厄介だけど面白い技術というものを受容する社会ではなくなっているのではないか。勇気をもって厄介な問題に取り組むことが必要だろう。
  • ・厄介な問題には、「誰が取り組んだらいいのかが不明確な問題」もあるのではないか。ビジネスの分野で言うと、AIベンダーが解決すべきなのか、AIソリューション提供者が解決すべきなのか等
  • ・法律や法律家は、今日お話のあった「専門家」と「非専門家」の間で、いずれの知識や論理とも異なった視点で「厄介な問題」を「飼い慣らされた問題」に書き換えている存在かもしれない。
  • ・自動運転の派生型トロッコ問題も、皆さん避けたがる問題。
  • ・以前、あるメーカー様から、個人情報保護に関して、法務部が個人情報保護法に関してマニュアル化できた部分は「法務」の問題だが、プライバシー侵害と感じるユーザーの気持ちは「社会的受容性」の問題と考えていると伺った。法律家視点で見ると、プライバシー侵害は民法上の不法行為で、損害賠償責任が発生しうる法的問題。専門家、非専門家、法律家との間で、飼い慣らされた問題と、厄介な問題が錯綜する場面がありそう。

 その他、以下のコメントがありました。

  • ・寺本は「飼い慣らされた問題」「厄介な問題」の2つに区分しているが、「宗教的問題」のような「解決できない問題」もあるのではないか?「宗教的問題」は社会に入り込んでいる。
  • →(寺本)宗教は根本的な問題なので解決は極めて難しい。技術導入のさいに絡むことはあるが、とりあえずは切り離して民主的意思決定できるレベルで考える。
  • ・「公正な仲介人」はカリスマ性がないのでは? 信頼性を得るためにカリスマ性は必要。
  • →(寺本)中立的な態度で接するのに、「引いた態度の中立」ではなく、ざっくばらんに内情を話すという態度もあり、それにより支持を得られる場合もある。
  • ・開発者、マーケティング、消費者の三つのステークホルダーそれぞれの立場が対立しているような場合の、「問題の構造化」が重要。

 今回の貴重な議論をもとに、「社会的受容」という「厄介な問題」に、ELSIセンターとELSIコミュニティは地道に取り組んでいきます。