見出し画像

大学生向け / レポート利用論文作成のための基礎知識 / ChatGPT 等の AI 利用

大学生がレポート作成をする際に、ChatGPT を使っていると言うことで、工学部の卒業生として、レポートや論文執筆に際して、所属する学会や学術誌で AI をどのように扱うかについて知っておいて欲しいです。

と言うことで、まとめてみました。

こちらでも上がっているように、やって良いことと悪いことが明確になってきていますね。

前置きとして、ガンガン使ってみよー!
だって忙しいし、楽だし、効率いいし😏

という派閥です笑

賛否等の議論は一切致しません。

だってもう、世の中 AI だらけだし。
使わないとか、使えないとかまずいでしょ。

今回使ってる DeepL だって ' 翻訳AI ' なんだから。 

Science

For years, authors at the Science family of journals have signed a license certifying that “the Work is an original” (italics added). For the Science journals, the word “original” is enough to signal that text written by ChatGPT is not acceptable: It is, after all, plagiarized from ChatGPT. Further, our authors certify that they themselves are accountable for the research in the paper. Still, to make matters explicit, we are now updating our license and Editorial Policies to specify that text generated by ChatGPT (or any other AI tools) cannot be used in the work, nor can figures, images, or graphics be the products of such tools. And an AI program cannot be an author. A violation of these policies will constitute scientific misconduct no different from altered images or plagiarism of existing works. Of course, there are many legitimate data sets (not the text of a paper) that are intentionally generated by AI in research papers, and these are not covered by this change.

ChatGPT is fun, but not an author
H. HOLDEN THORP Authors Info & Affiliations
SCIENCE
26 Jan 2023
Vol 379, Issue 6630
p. 313
DOI: 10.1126/science.adg7879

これを翻訳すると。

何年もの間、Science誌の著者は「作品はオリジナルである」ことを証明するライセンスに署名してきました(イタリック体追加)。サイエンス誌にとって、「オリジナル」という言葉は、ChatGPTによって書かれた文章が受け入れられないことを示すのに十分なものです。結局のところ、ChatGPTからの盗作なのです。さらに、私たちの著者は、論文の研究に対して彼ら自身が説明責任を負うことを証明しています。それでも、ChatGPT(あるいは他のAIツール)で生成されたテキストを作品に使用することはできませんし、図、画像、グラフィックもそうしたツールの産物であってはならないことを明示するために、現在、ライセンスと編集方針を更新しているところです。また、AIプログラムは著者にはなれません。これらのポリシーに違反した場合は、画像の加工や既存作品の盗用と何ら変わらない科学的不正行為となります。もちろん、研究論文においてAIが意図的に生成した正当なデータセット(論文の本文ではない)も多数存在しますが、これらは今回の変更の対象外です。

www.DeepL.com/Translator(無料版)で翻訳しました。

要は、Science誌については、利用は不正ということですね!

Nature

The big worry in the research community is that students and scientists could deceitfully pass off LLM-written text as their own, or use LLMs in a simplistic fashion (such as to conduct an incomplete literature review) and produce work that is unreliable. Several preprints and published articles have already credited ChatGPT with formal authorship.

That’s why it is high time researchers and publishers laid down ground rules about using LLMs ethically. Nature, along with all Springer Nature journals, has formulated the following two principles, which have been added to our existing guide to authors (see go.nature.com/3j1jxsw). As Nature’s news team has reported, other scientific publishers are likely to adopt a similar stance.

First, no LLM tool will be accepted as a credited author on a research paper. That is because any attribution of authorship carries with it accountability for the work, and AI tools cannot take such responsibility.

Second, researchers using LLM tools should document this use in the methods or acknowledgements sections. If a paper does not include these sections, the introduction or another appropriate section can be used to document the use of the LLM.

Nature 613, 612 (2023)
doi: https://doi.org/10.1038/d41586-023-00191-1
EDITORIAL
24 January 2023
Tools such as ChatGPT threaten transparent science; here are our ground rules for their use

これを翻訳すると、

研究コミュニティで大きく懸念されているのは、学生や科学者がLLMで書かれた文章を自分のものとして詐称したり、LLMを単純な方法で(不完全な文献レビューを行うなど)使用し、信頼性のない作品を作ってしまったりすることです。すでにいくつかのプレプリントや出版された論文では、ChatGPTが正式な著者としてクレジットされています。

だからこそ、研究者と出版社は、LLMを倫理的に利用するための基本的なルールを確立する時期に来ているのです。ネイチャーは、シュプリンガー・ネイチャーの全てのジャーナルとともに、以下の2つの原則を策定し、既存の著者へのガイドに追加しました(go.nature.com/3j1jxswをご覧ください)。ネイチャー誌のニュースチームが報じているように、他の科学出版社も同様のスタンスをとる可能性が高いです。

まず、LLMツールが研究論文のクレジットされた著者として認められることはないでしょう。なぜなら、著作権の帰属には研究成果に対する責任が伴うが、AIツールにはそのような責任を負わせることができないからだ。

第二に、LLMツールを使用する研究者は、その使用方法を方法または謝辞のセクションで文書化する必要があります。論文にこれらのセクションがない場合は、序文または他の適切なセクションを使用して、LLMの使用を文書化することができます。

www.DeepL.com/Translator(無料版)で翻訳しました。

要は、

最後に使用したことを記述してね!

と言うことですね!

Nature については、こっちも参考になるかも。

The Large Language Model (LLM) というのが今回でいう ChatGPT を示します!
大規模言語モデルっていうやつですね。

International Conference on Machine Learning(ICML)

国際機械学習会議のことで、人工知能、機械学習、統計学などに関連する研究者や専門家が集まる国際学術会議です!

ここでは、次ののような発表が。

Papers that include text generated from a large-scale language model (LLM) such as ChatGPT are prohibited unless the produced text is presented as a part of the paper’s experimental analysis.

This statement has raised a number of questions from potential authors and led some to proactively reach out to us. We appreciate your feedback and comments and would like to clarify further the intention behind this statement and how we plan to implement this policy for ICML 2023.

TLDR;

The Large Language Model (LLM) policy for ICML 2023 prohibits text produced entirely by LLMs (i.e., “generated”). This does not prohibit authors from using LLMs for editing or polishing author-written text.
The LLM policy is largely predicated on the principle of being conservative with respect to guarding against potential issues of using LLMs, including plagiarism.
The LLM policy applies to ICML 2023. We expect this policy may evolve in future conferences as we understand LLMs and their impacts on scientific publishing better.

Clarification on Large Language Model Policy LLMWe (Program Chairs) have included the following statement in the Call for Papers for ICML represented by 2023:
https://icml.cc/Conferences/2023/llm-policy

これを翻訳すると、

ChatGPTのような大規模言語モデル(LLM)から生成されたテキストを含む論文は、生成されたテキストが論文の実験的分析の一部として提示される場合を除き、禁止されています。

この声明により、著者の候補者から多くの質問が寄せられ、積極的に連絡を取ってくださる方もいらっしゃいます。私たちは、皆様からのフィードバックやコメントに感謝するとともに、この声明の背後にある意図と、ICML2023でこの方針をどのように実行する予定かをさらに明確にしたいと思います。

要約;

ICML 2023のLarge Language Model(LLM)ポリシーでは、LLMによって完全に生成された(すなわち「生成された」)テキストを禁止しています。 これは、著者が書いた文章を編集したり、推敲するためにLLMを使用することを禁止するものではありません。
LLMポリシーは、剽窃を含むLLMの使用に関する潜在的な問題から保護するために、保守的であるという原則を主な前提にしています。
LLMポリシーはICML2023に適用されます。私たちは、LLMとその科学出版への影響について理解を深めるにつれ、この方針が将来の会議で発展することを期待しています。

www.DeepL.com/Translator(無料版)で翻訳しました。

要は、

自分で作った文章を編集したり、推敲したりするのを禁止するわけじゃないよ!

ってことですね!

完全に生成されたテキストの使用は禁止するようですね。

例えば NotionAI では、

Notion AIの応答が正確かどうかは、どうすればわかりますか?

Notion AIは、議事メモの要約やブレインストーミングなどの効率化に最も効果を発揮します。
Notion AIは回答ボットやリサーチに代わるものではないため、重要なコンテンツについては、Notion AIによって生成された内容の正確性を常に検証することをお勧めします。

Notion AI よくあるご質問
https://www.notion.so/ja-jp/help/notion-ai-faqs

にあるように、

議事メモの要約やブレインストーミングなどの効率化に使うといいよ!

とアドバイスがありました。

こういうこれから論文をたくさん書いて行くであろう学生さん(特に1回生や2回生)は、実験レポートに追われ、少しでも使えたら楽になると思います🤣笑

あー、何回徹夜したことか🤗

ただ、後から

単位あげないよ。

なんて言われないように、事前に調べておくことも大事ですね!笑
一方で、

積極的に利用する力を伸ばすために、

使え!!

っていう方針の大学もあるみたいなので(ボクはそっち派👍✨)、どんどん使って、作業を効率化しつつ、新しいアイデアを作り出していけたらいいですね!
( ここで挙げた言語モデルは、これまでに学習したことから新しいものを創造するようになっていません)

こちらにも解説記事があるので!どうぞ!

Twitter

Facebook

ポートフォリオ


YouTube チャンネル

いちばんやさしい Google Apps Script


何かと0から1を作るのは大変だと思います。学校はどこも似たような問題課題に対応していると思います。それなのに、先生って自分だけで頑張ろうとするんですよね。ボクの資料やnoteが1になって、学校ごとの現状に合わせてカスタムしていただければと思います‼️