ChatGPTのような大規模言語モデル(LLM)から生成されたテキストを含む論文は、生成されたテキストが論文の実験分析の一部として提示されない限り禁止という方針らしい(JAMA誌論評)

ChatGPTについて以下のJAMA論評への見解を聞いてみた

The author responsibilities in regards to the use of artificial intelligence, language models, machine learning or similar technologies are outlined clearly. The authors are expected to take responsibility for the integrity of the content generated by these tools and to report the use of these technologies in the manuscript. The submission and publication of content created by these technologies is discouraged unless it is part of formal research design or methods, and clear description of the content and the model or tool used must be provided. The same applies to images created by these technologies.;DeepL翻訳 人工知能、言語モデル、機械学習、または類似の技術の使用に関して、著者の責任を明確化する必要がある。著者は、これらのツールによって生成されたコンテンツの完全性に責任を持ち、原稿の中でこれらの技術の使用について報告することが期待される。これらの技術によって作成されたコンテンツの投稿・公開は,正式な研究デザインや研究方法の一部でない限り,推奨されず,コンテンツと使用したモデルやツールの明確な説明が提供されなければならない.これらの技術によって作成された画像についても同様である。

OpenAIも対策

OpenAI、テキストが人間によるものかどうか判定するツールを無料公開 - ITmedia NEWS


問題の論評記事

Nonhuman “Authors” and Implications for the Integrity of Scientific Publication and Medical Knowledge
Annette Flanagin, et al
JAMA. Published online January 31, 2023. doi:10.1001/jama.2023.1344
https://jamanetwork.com/journals/jama/fullarticle/2801170

著者の原稿や出版された論文の準備や質の向上を支援する人工知能(AI)技術は、急速にその数と精巧さを増している。これには、ライティング、文法、言語、参考文献、統計分析、報告基準などを支援するツールが含まれます。また、編集者や出版社は、投稿論文に問題(例:剽窃、画像操作、倫理的問題)がないかスクリーニングしたり、投稿論文のトリアージ、参考文献の検証、編集、異なるメディアで出版するためのコンテンツのコーディング、出版後の検索や発見性を促進するなど、無数の目的でAI支援ツールを使用している。

2022年11月、OpenAIはChatGPTと呼ばれる新しいオープンソースの自然言語処理ツールをリリースした。ChatGPTはチャットボットを進化させたもので、プロンプトや質問に反応して人間の会話をシミュレートするように設計されている(GPTは「generative prerained transformer」の略です)。 2023年1月、Nature誌は、科学・健康分野で発表された論文のうち、ChatGPTを傍線著者として含むプレプリント2本と論文2本を報告した。これらの論文には、それぞれChatGPTの所属先が含まれており、そのうち1本は人間以外の「著者」の電子メールアドレスが含まれています。Natureによると、その論文の著者欄にChatGPTが含まれていたのは「誤りであり、間もなく訂正される予定」だが、これらの論文とその非人間「著者」は、すでにPubMedとGoogle Scholarに索引付けされている。                                                                                   Natureはその後、科学論文における大規模言語モデルの使用を指導する方針を定め、「著作権の帰属には研究に対する説明責任が伴うが、AIツールはそのような責任を負えない」ため、このようなツールを「研究論文にクレジットされた著者」として挙げることを禁止した。またこの方針では、これらのツールを使用する研究者に対して、原稿中の方法または謝辞欄にその使用方法を明記するよう勧告している。他のジャーナルや組織は、これらの非人間的技術を「著者」として含めることを禁止し、投稿論文にAIが生成したテキストを含めることを禁止することから、学術出版においてこれらのツールがどのように使用され報告されているかについて完全な透明性、責任、説明責任を求めることまでの方針を早急に策定している。 International Conference on Machine Learningは、その会議で審査・議論するための論文募集をしているが、新しい方針を公表している。"ChatGPTのような大規模言語モデル(LLM)から生成されたテキストを含む論文は、生成されたテキストが論文の実験分析の一部として提示されない限り禁止 " この学会は、このポリシーに質問が殺到していることを指摘し、「LLMが機械学習とAIの分野の審査と出版に与える影響(プラスとマイナスの両方)について調査し議論する」予定で、今後ポリシーを見直す予定と述べている。


著者の責任

人間以外の人工知能、言語モデル、機械学習、または類似の技術には、著者の資格はありません。
これらのモデルやツールを使ってコンテンツを作成したり、執筆や原稿作成を支援したりする場合、著者はこれらのツールによって生成されたコンテンツの整合性に責任を持たなければならない。著者は、人工知能、言語モデル、機械学習、または類似の技術を使用してコンテンツを作成したり、原稿の執筆や編集を支援したことを、謝辞のセクション、またはこれが正式な研究デザインや方法の一部である場合は方法のセクションに報告する必要がある。

これには、作成または編集されたコンテンツの説明、言語モデルまたはツールの名称、バージョンおよび拡張番号、製造元が含まれます。(注:文法、スペル、参考文献などをチェックするための基本的なツールは含まれません。)


複製・再作成された資料

人工知能、言語モデル、機械学習、または類似の技術によって作成されたコンテンツの投稿と公開は、正式な研究デザインや方法の一部を除いて、推奨されません。また、作成されたコンテンツとモデルまたはツールの名前、バージョンと拡張番号、製造元を明確に記述しない限り、許可されません。著者は、これらのモデルやツールによって生成されたコンテンツの完全性について責任を負わなければなりません。

画像の完全性

人工知能、機械学習ツール、または同様の技術によって作成された画像の投稿と公開は、正式な研究デザインや手法の一部を除いて、推奨されません。また、作成されたコンテンツの明確な説明、モデルやツールの名前、バージョンと拡張番号、製造元の説明がない場合は、許可されません。著者は、これらのモデルやツールによって生成されたコンテンツの整合性に責任を持たなければならない。


Translated with DeepL
Translated with DeepL

この記事が気に入ったらサポートをしてみませんか?