見出し画像

AIの科学技術政策への活用(nature記事)

写真出展:Gerd AltmannによるPixabayからの画像https://pixabay.com/ja/users/geralt-9301/?utm_source=link-attribution&utm_medium=referral&utm_campaign=image&utm_content=3055704

 2023年9月27日にnatureは、AIの科学技術政策への活用に関する記事を発表した。内容は、大規模言語モデルなどの活用とその問題点を概観するものである。AIに対する期待は大きいものの、その欠点も指摘されている所であり、バランスの取れた運用が求められている。今後のAIの有効活用を考える参考として本記事の概要を紹介させていただく。

↓リンク先(AI tools as science policy advisers? The potential and the pitfalls)
https://www.nature.com/articles/d41586-023-02999-3

1.本記事の内容について
 ・ChatGPTの登場により、AIの活用について様々な議論がなされているが、科学政策への有効活用についてはあまり議論されていない。科学の分野については、その道の専門家が知識や最新状況を政治家や官公庁などに提供するのが一般的であるが、参照するべき論文や情報を極端に短い期間で取りまとめなければならず、専門家にとっても非常に難儀する事態となっている。
 ・AIを活用するのは良いとしても、どのように活用するのかという問いは非常に難しいものがある。前提条件をどのように設定するのか、多少の誤りを許容するのか、誤りをどのように確認するのか、刻々と変化するAIへの対応は非常に困難を極める。
 ・科学的な根拠の主な取りまとめ手法は2つである。まず、健康や医薬品などに関するコクランのような体系的な検証は、最善の解決策を見出すために関連する文献を体系的に分析するものである。もう一つは分野横断的調査であり、一つの主題に関する文献を収集し、その中から関連する情報を抽出するものであり、メタデータセットのようなツールはその一例である。AIや機械学習などによりデータの処理速度が飛躍的に上昇している現状において、こういった作業への活用が期待される所である。
 ・新興技術の情報収集や抽出は、査読済みの論文や取りまとめ分権が存在しないことから非常に困難であるが、大規模言語モデルは体系的に分類することができ、関連分野の論文数などをグラフ化することが可能である。ただデータの質や結論についての評価には、人間の目が必要である。このようにして収集されたデータがあれば、政策策定にも非常に有益である。AIによる作業の自動化は、言語の壁をも乗り越えることができる。例えば生命多様性の論文は3分の1以上が非英語のものであり、スペイン語、ポルトガル語、中国語、フランス語などの文献を全て読み込むことは1人ではできないことから、こういったテーマに対応する際にも有益だろう。
・ただデータを適切に取り扱いためには、3つの問題点を考慮する必要がある。
 第一に、情報の一貫性について理解しておく必要がある。例えば論文や報告書などのフォーマットが統一されていないことから、有効期間やサンプルの大きさなどは文章の中に埋もれやすくなっている。こういった問題を克服するためには、論文の体裁に関する体系的な整理が必要である。
 第二に、情報の信頼性評価である。一般的には研究の現実性、研究者の評価、所属研究機関、他分野の研究者からの評価、同僚や同業者からの視点の5項目に基づいて評価される。これはAIが苦手とする分野であり、論文発表数や引用数などの指標では質を適切に評価することはできない。従って、AIの評価基準パラメータをどのように設定するかが重要となる。
 第三は、データの抽出元と入手可能性である。適切なデータベース選択が重要であり、政府による公開された研究データベースが構築されれば、分類基準や著作権といった問題点を克服することが容易となるだろう。
 ・科学政策は、政治家にどのような情報をインプットするのかで決まる。イギリスの議会科学技術室、アメリカの議会科学諮問会議などの組織は、科学技術に関する情報を政治家に提供しているが、そのほとんどの時間を委員会の質疑応答や報告書作成に費やしている。まだAIだけでこういった文書の作成はできないが、学習用の情報やモデルの構築、ガバナンス、偽情報、データプライバシーなどに配慮してAIを運用することで、徐々に形になっていくだろう。

2.本記事読後の感想
  AIは業務の効率化にとって必要不可欠なツールであり、今後もその利用が拡大してくことは間違いない。すでに生成AIを利用して業務が遂行され、その問題点も顕在化しつつある。このな中で、効率的かつ効果的に利用する方法を見出す必要があるが、AIそのものに関する危険性を熟知し、使いこなすための知恵が欠かせない。
例えばChatGPTは、特定の言語圏における情報に弱点があるように思われ、情報の質の向上が欠かせない。敵対的サンプリングのような手法で大規模言語モデルの精度を狂わせることもできるわけで、無条件に用いればよいというものではない。アドバンスドチェスのように、ソフトと人間がタッグを組む有効な手法を確立しなければ、AIからもたらされる情報に翻弄されることになるだろう。

 日本人はこういった議論が非常に苦手だと思われる。目先の話や教育の部分的な問題ばかりに拘泥するだけでなく、建設的なことを考えて欲しいものである。

 英文を読んでわからないという方は、メールにて解説情報をご提供させていただきます。なにぶん素人の理解ですので、一部ご期待に沿えないかもしれませんので、その場合はご容赦願います。当方から提供した情報については、以下の条件を守ったうえで、ご利用いただきますようよろしくお願いいたします。

(1) 営利目的で利用しないこと。
(2) 個人の学習などの目的の範囲で利用し、集団での学習などで配布しないこと。
(3) 一部であっても不特定多数の者が閲覧可能な場所で掲載・公開する場合には、出典を明示すること。(リンク先及び提供者のサイト名)
(4) 著作元から著作権侵害という指摘があった場合、削除すること。
(5) 当方から提供した情報を用いて行う一切の行為(情報を編集・加工等した情報を利用することを含む。)について何ら責任を負わない。

この記事が気に入ったらサポートをしてみませんか?