ELSIセンター
第2回ELSIコミュニティアクティビティ報告
2022年08月26日
「コミュニティアクティビティ」の第2回が開催されました。第1回に続き、企業と大学の参加者の間で活発な議論が繰り広げられ、ELSIセンターの活動の重要性が確認される内容となりました。以下に報告します。
【日時】2022年6月1日(水)15:30~17:00
オンライン開催
【テーマ】日本におけるAIガバナンスの動向
【プログラム】
総務省の方より話題提供
中央大学からの話題提供:中央大学国際情報学部 大手英明(総務省から出向)
フリーディスカッション
最初に、総務省の方から、AIネットワーク社会の推進のためのガバナンスのこれまでの経緯、最新動向について、話題提供いただきました。これまでに策定された「人間中心のAI社会原則」と「AI開発ガイドライン」・「AI利活用ガイドライン」について紹介された後、EU規制案の、リスクを4段階に分け、リスクに応じた規制をするという考え方が紹介されました。その後、AI倫理・ガバナンスに関する主な論点として、
・AI規制はハードロー、ソフトローの二分法の考え方でなく、多様なリスクにどう対応するか、知恵を出すべき。
・ELSI(倫理的・法的・社会的課題)の検討に、ハンドル(イノベーションを推進するアクセル)と、技術を正しく使うためのブレーキの役目を担わせることが重要である。
といった指摘がありました。また、最近実施されたガイドラインレビューの中で、「AIの尊重すべき価値」として、「責任」「モニタリング、監査」を含むいくつかの新しい項目が追加されたことが紹介され、今後、これらの新しいものを含む価値をどう担保するかといった観点で見直していく必要性が述べられました。
続いて、中央大学の大手英明が、
●データ、AIに関する(知的財産面からの)検討
●AIとサイバーセキュリティ
について情報提供しました。その後、大手は、今後想定される課題を考えるきっかけとして、学生にAIに対する意識調査のアンケートを行った結果を紹介し、AIの判定を尊重することが当然となり、人間の自律の前提が崩れる可能性に触れ、AI倫理やリテラシーなどの重要性が増すだろうと述べました。
ディスカッションの最初はEU規制案に焦点が当たり、参加者から以下のような意見が出されました。
・EU規制案は無視できないと考えている。規制案に照らして棚卸をしつつ、世の中の動向を見ている。
・顔認証などの生体認証について、どこまで対応するかは、コストもかかわり、今後の大きな課題である。
・社会的受容性の観点から、市民を含むステークホルダーにリスクやデメリットに納得できる説明ができるか、という考え方で対応準備を進めている。
・「どのAIはどのカテゴリー」、「同じ使い方だからハイリスク」と一律に考えることに疑問を感じる。初めて出てくるAIをどこに入れるのかなど、社会実験で評価しながらコンセンサスを取っていくことが大事。細かく丁寧な議論がもっと必要。
・「ブラックボックスだから即不安」への対策として、細かな法律でなく、ソフトで大まかな原則の策定を図る。大まかなところでは、世界的に似たようなことを言っている。
・「透明性」と「アカウンタビリティ」の2つを目指して、受け入れてもらえるようにしていくことが重要。なぜAIがこう判断したのか、どんなデータを使ってどんなしくみでそういう判断が出たのかを、素人に分かるように説明することで、不安をなくす。
また、中央大学の大手が紹介した学生アンケートをきっかけに、
・AIの判断の精度を考える際に、そもそも正解が分かるケースと分からないケースがある。
・学生はAIを便利なものと感じていて、リスクを考えない傾向が感じられる。リスクとベネフィットを同時に考えないといけない。AIを過度に頼ると不信感につながる。
といったことが指摘されました。そして、もともと汎用的につくられたAIを、利活用において、どのようなところにどう許容して適正に利用するか、企業、行政、一般のそれぞれの立場で、ELSIの観点から課題を抽出して考えることが重要、という点が確認されました。
ディスカッションの後半では、以下の点が話題になりました。
◇「ライアビリティ(責任)」について
「AI開発ガイドライン」・「AI利活用ガイドライン」のいずれにも、ライアビリティに関する内容は入っていない。時期尚早であり、EU等の動きをふまえ、ガイドラインレビューにおいて多角的に検討していくことが必要。
◇サイバーセキュリティについて
GAFAMのIT管理下を出て、AIの小宇宙をバブルのようにたくさん作り、小宇宙同士をブロックチェーンで結び、同意の取れた人達の間でAIを使うWeb3.0の動きがある。政府の会議で議論できれば。