中央大学について

中央大学における「生成系AI」についての基本的な考え方 Chuo University’s Fundamental Attitude toward Generative Artificial Intelligence

ENGLISH FOLLOWS

2023年6月5日

中央大学
学長 河合 久

現在、いわゆる「生成系AI」の研究開発が急速に進展しており、様々なシステムが実際に利用できるようになりつつあります。データベースに代表される従来型のシステムが、高速なデータ照合によって、予め用意されている情報を提供するのに対して、これら生成系AIシステムは、インターネット上に存在する膨大なデータを「学習」して、「新たな表現」(あるいは「新たなものにみえる表現」)を出力し、提示するという特徴を有しています。

こうした生成系AIの技術は、現在の社会構造を根底から変化させる大きな可能性を有しています。これまでも、定型的あるいは反復継続的な業務を機械化・ロボット化することが行われてきましたが、生成系AIシステムに非定型的あるいは新規性のある業務をも担わせることによって、急激な人口減少下であっても、社会を持続的に発展させるということが、真剣に議論されています。また、人と生成系AIの協働によって、人が新しい気づきを得て、新たな価値を創出することも現実になりつつあります。

そこで中央大学は、高等研究教育機関として、次の諸点に留意しつつ、生成系AIの研究開発と社会実装を含む利用に取り組むことが、その社会的責任であると考えます。

第1に、生成系AIは、現実社会の一部であるインターネット上に存在する情報の学習を起点とする以上、当然に、現実社会の歪みの影響を受けるものであることを自覚する必要があります。たとえば、生成系AIシステムには、インターネット上の憎悪表現の影響を受けた出力をするリスクが存在する以上、その出力・提示内容を人が倫理的観点から判断しつつ利用することが必要です。

第2に、「学習」された情報をどのような出力・提示内容に結びつけるかというアルゴリズムへの関心を持ち続け、その可視化に努力することが必要です。たとえば、現実社会における憎悪表現等の反社会的言説を排除しきれない以上、生成系AIシステムをそれらの影響から自由とするために、アルゴリズムの側で対応することが考えられます。しかし、これは「反社会的」たることの内実を、「誰かが」「予め」定めることを含意し、特定の価値の不可視化による排除や、逆に特定の価値押しつけのリスクが生じることになります。そこで、生成系AIシステムの研究開発や社会実装には、どのような価値を肯定的又は否定的に取り扱うのか、という点に係る説明責任が伴うと考えるべきです。

第3に、私たちは、生成系AIを道具として利用することにより、人生や社会を豊かに発展させることを妨げられるべきではありませんが、それを担保するためには、出力・提示内容が生成系AIの産物であることを明示した上で利用することが必要です。たとえば、生成系AIシステムの利用者が、その出力・提示内容を自らの著作物として主張することは法的に問題があるのみならず、自らの人生や社会のあり方は自らが決定するという自律の観点からも大きな危険をはらんでいます。生成系AIシステムの判断が、「私」や「私たち」の判断として流通するならば、人格的自律に基づく個人の自由とそれに伴う責任という、私たちの社会の根幹を支える価値が危機に瀕することになります。

第4に、生成系AIシステムは、現在においては、まさに新規性の強い発展途上の技術であると共に、インターネット上に存在する情報を起点とするという構造上、永遠に「完成」しないシステムであることを認識して利用する必要があります。そこには、第1に述べたような歪みが含まれるだけでなく、多くの事実に関する誤りや、小さいけれども重要な事実の無視といったリスクが伴います。当然のことではありますが、ある生成系AIシステムの出力・提示内容について、常に確認をしつつ利用することが重要です。

第5に、生成系AIシステムを含むインターネット上に展開されるシステムは、国境を超える特性がありますが、これらの研究開発や社会実装に係る文化や法規制は、国や地域ごとに大きく異なっていることに留意が必要です。たとえば、知的財産権やプライバシー権との関係を踏まえて、多くの国や地域において異なる内容の規制が導入されつつあり、日本においては問題と考えられないことであっても、他の国や地域では強い非難の対象となることもあります。そこで、文化や法の差違・多様性について、私たち自身の理解を深めることが、極めて重要となります。

中央大学における研究教育、あるいは中央大学の社会貢献において、生成系AIが果たす役割は、今後、飛躍的に拡大することが考えられます。関係の皆さまには、上の点に留意され、それぞれの分野・領域での取り組みを進めていただくようお願いいたします。

なお、教育課程における生成系AIの利用については、別に定める「中央大学の教育課程における『生成系AI』利用上の留意事項」をご参照ください。

June 5, 2023

Chuo University’s Fundamental Attitude toward Generative Artificial Intelligence

Chuo University
    President Hisashi Kawai

Research and development of Generative Artificial Intelligence (hereafter “generative AI”) are accelerating rapidly, and we are becoming able to harness various generative AI systems. While traditional systems, typified by databases, provide prepared information gained through high-speed data matching, generative AI systems “learn” from vast amounts of data online, typically on the Internet, and output “new (or apparently new) expression.”

These AI technologies hold great potential to transform the current social structure from the bottom up. Until now, mechanization and robotization of formulaic, repeatable, and continuous work has been taking place. However, we are now in the midst of a debate, how to take advantage of generative AI systems for non-routine work and new tasks in order to develop our society in a sustainable manner, in particular as we face a phase of steep population decline. We can also gain new insights through collaboration between human beings and generative AI, which may lead to a generation of new values in the near future.

As an institution of higher research and education, Chuo University considers it our social responsibility to engage in research and development of generative AI and its usage, including social implementation by paying attention to the following points.

First, as generative AI learns from data on the Internet, which is a part of the real world, we need to be aware that generative AI is vulnerable to the distortions of real society. For example, as long as we cannot exclude hate speech on the Internet, there is the risk of generative AI systems being affected and outputting such expressions. As a result, we should evaluate and treat those generated outputs or expressions from an ethical point of view.

Second, we should always be aware of how algorithms are used to integrate the “learned” information into output/expressed content, and make constant efforts toward its visualization. For instance, as long as antisocial discourses such as hate speech existing in real society cannot be excluded, we should tackle them algorithmically and keep generative AI systems free from those negative impacts. However, the aforementioned requires “someone” to “pre-stipulate” the essence of being “antisocial,” which may pose the risk of eliminating certain values by making them invisible, or of forcing specific values. Therefore, we should consider that the research and development of generative AI systems and their social implementation should be accompanied by researchers' and developers' duty to explain of what values are treated positively or negatively.

Third, while generative AI may contribute to making our lives and societies prosperous, and such prosperity should not be hindered, it is imperative to clarify that output/expression contents are the products of generative AI when using it. For example, if a generative AI user claims that the output/expressed content is their own work, it will not only raise legal issues but also be counter to the autonomy of an individual to decide life and society on one’s own. If the products of generative AI are distributed as “my or our own” decisions, individual liberty based on personal autonomy and its accompanying responsibilities, which are essential parts of our society, will face material risks.

Fourth, it is necessary to use generative AI systems with the recognition that they, at this point, are innovative and developing technology, and that they will never reach "completion" because they originate from information that exists on the Internet. This presents risks of including distortions of real society as mentioned above, misunderstandings of facts, and not taking small but material facts seriously. It is essential to continuously check the output/expression content of generative AI systems when using them.

Fifth, although systems developed on the Internet, including generative AI, are borderless, we must pay attention to large legal and cultural differences among countries and regions regarding research, development, and social implementation of generative AI. For instance, considering the relationships between generative AI and intellectual property rights or privacy rights, many countries have started to enforce their own regulations. There will be cases in which actions that are considered acceptable in Japan will be subject to strong criticism in other countries or regions. It is very important for each of us to have in-depth knowledge of the differences and diversity among cultures and legal systems.

The roles that generative AI plays in the sphere of research education at Chuo University and in Chuo’s contribution to society will surely expand dramatically. Those responsible are kindly asked to always bear in mind the above points and make good use of generative AI in each specialized field.

Please refer to the appendix, “Considerations when using Generative AI in the Chuo University Curriculum,” regarding the use of generative AI systems in Chuo curricula.