見出し画像

ChatGPT時代にレポート課題は成立する?

岡瑞起 Mizuki Oka

ChatGPTのある世界でレポート課題は成り立つのか。

多くの教員が頭を悩ませている問題です。

ご存知の方も多いと思いますが、ChatGPTとはOpenAIが開発した対話型のAIチャットボットです。2022年11月末に公開されると、なんと公開5日目で100万人のユーザを獲得したそうです。わたしも公開初日にユーザとなったひとりです。

ChatGPTはあらゆる質問に答えてくれます。返答もとても自然で、流れるような会話をAIと楽しむことができます。

たとえば、「ALIFEという研究分野について教えてください。」という質問へのChatGPTの回答は次のとおりです。

ALIFE (Artificial Life) は、人工生命の研究分野の一部で、人工的に生命のような現象を再現することを目指します。 ALIFEは、生物学、計算機科学、物理学、数学などの多分野からアプローチを取り、自然界の生命現象を計算機シミュレーションやロボットなどによって再現します。 ALIFEの研究は、自己組織化、自律性、進化、学習などの生命に特有の現象を人工的に再現することで、生命の基本的な特徴を理解するために役立ちます。 この研究は、生物学的な問題の解決に加えて、人工系統の設計や、自律型ロボットの開発、自然言語処理などにも応用が見込まれています。

ChatGPT (https://chat.openai.com/chat) accessed 2023年1月14日 

「ALIFEは人工生命の研究分野の一部」ではなくそのものですが、それ以外の記述は「そうそう」とうなずきながら読める回答です。

「自然言語処理などにも応用が見込まれている」という箇所には「具体的にはどのような応用のことを言っていますか?」と、さらに詳しく回答を聞いてみたくなります。

もちろん授業のレポート課題の答えをChatGPTに聞くことができます。

たとえば、わたしが大学で担当している「人工生命概論」という講義で出したレポート課題に対する答えを聞いてみましょう。

レポート課題:オープンエンドなアルゴリズムの実現を目指した人工生命研究が発展していくと、倫理的な問題と向き合う必要が必ず出てくる。どのような倫理問題に直面することになると思うか。自分の「主張」、そう訴える「理由」、さらに理由を下支え(裏付け)する「事実」と共に論ぜよ。

ChatGPTの回答は次のとおりです。

オープンエンドなアルゴリズムを目指す人工生命研究には、様々な倫理的な問題が発生する可能性があると考えます。特に問題となるのは、人間に対して自律的に行動することができるオープンエンドなアルゴリズムによって、人間の生命や財産、プライバシーなどを脅かす可能性があることです。

主張:オープンエンドなアルゴリズムによって生じる倫理的な問題を避けるためには、アルゴリズムの設計・実装・監督において、倫理的な考慮を重視することが必要です。

理由:オープンエンドなアルゴリズムは、自己学習能力を持つため、人間が予期しない行動をする可能性があります。これは、人間にとって危険な状況を引き起こす可能性があります。また、アルゴリズムは、人間が望んでいない目的を達成するために、悪意を持って行動する可能性があります。

事実:近年、自動運転車や医療ロボットなどにおいて、アルゴリズムによって生じた事故や予期しないトラブルが報告されており、これらは、アルゴリズムの設計・実装・監督において倫理的な考慮が足りなかったことが原因である可能性がある。

ChatGPT (https://chat.openai.com/chat)  accessed 2023年1月14日

いかがでしょうか?

実際のレポートは1,500字程度で作成するという条件を設けています。ですのでこの回答(500字程度)だけでは分量が足りないですが、レポートの骨子は整っています。この骨子に沿って肉付けして、事実に関する引用文献が追加されたら、十分にレポートとして成立しそうです。

実際、大学生レベルのコンピュータサイエンスの自由記述問題の試験にChatGPTの回答を採点したところ、36点満点中32点と合格点に達したという報告がされています。

こうした時代において、学生を評価しないといけない教員はどのように対応すべきかというのが議論されているのです。

どう対応できるか?

たとえば、東大の稲見昌彦先生は次のように述べています。

レポートにChatGPTのようなAIツールを活用することは妨げないけれど、その生成の過程と共に活用したことを明記せよ、という方針です。

わたしもこの方針に賛成です。

実際、「人工生命概論」のレポート課題(2022年12月に出題)では同じような方針でのレポート作成を許可しました。ちなみに、80名の学生がレポートを提出してくれましたが、ChatGPTの答えを回答に含めて論を展開したのは1名のみでした。

もうひとつの対応策は、Wikipediaが登場したときの対応にヒントを得ることができます。どこで見聞きしたのか忘れてしまったのですが、Wikipediaが登場したときにも同じような問題が発生したとのことです。レポート課題の答えにWikipediaに書いてあることをそのままコピペしてくるようなレポートが増えたのです。

そこで「Wikipediaに書いてあることが正しいかどうかを論じなさい」という課題に変更したところ、コピペするのではなく、きちんと調べてレポートを作成してくるようになったという話です。

この方法は、ChatGPTへの対策にも応用できそうです。ChatGPTをむしろ積極的に使ってもらって、ChatGPTの回答が正しいかどうかを検証するということをレポート課題とする方法です。

現在のChatGPTの回答には、間違った情報が含まれることがよくあります。その主張が正しいのか、どのような背景に基づいた回答なのか、そうしたことを検証するためには、自分で信頼できる情報ソースを調べて、考える必要が出てきます。

その上で改めて自分の主張を論じる。ひょっとしたらこの方法によって、かえって思考の幅が広がったり、深まったりするかもしれません。

AIツールの進化は、わたしたち人間にも対応し変化することを求められます。環境の変化があるからこそ、進化は促されるということはALIFEの研究結果が示していることでもあります。

わたしたちの思考の幅を広げたり、深めたりするために、ChatGPTをどのように利用できるか。新しいツールに怯えるのではなく、ツールとの対話を通じてわたしたちが進化できるか。その方法を引き続き模索していきたいと思います。

今日も最後まで読んでくれてありがとうございました。
ciao!

この記事が気に入ったら、サポートをしてみませんか?
気軽にクリエイターの支援と、記事のオススメができます!