覚書:生成AIと大学組織の動向
2023年4月時点での大学と生成AIの動向について、ChatGPTの利用や制約と併せて書きました。
前回(2023年3月)のおさらい
生成AIと大学組織の動向
■ 【概略】表明した大学一覧の分析
強力な外的影響という点で共通しているコロナ禍との違いは、今回の事変が生成AI禍であり生成AI福でもあることです。薬も過ぎれば毒となる。その塩梅や味付けに苦心されている大学が多い印象を受けました。
2023年4月28日12:00時点で正式に生成AI等への対応を外部に公表した国内大学の数は44に上ります(URLベースで換算;実際の大学数とは異なります)。
このほか学内でのみ表明した大学(青学、静大、九大等)が報道されているので少なくとも50近い大学組織が学生/教職員に何らかの意思や方針を表明したことになります。
生成AIへの大学の反応は様々です。
この表明を見るに、大学を「全力リスクヘッジ型」と「理念ドリブン型」の2種類に大別できるかもしれません。
全力リスクヘッジ型の例:
理念ドリブン型の例:
※ 詳しくは現在分析中なので、どこかで発表したら資料を共有します。
■ 【概略】ユネスコの"ChatGPT利用ガイド"
と、ぼんやり考えている間にユネスコが綿密な調査を行い、明確かつ分かり易く言語化しました。終わり。
まだ読んでいない人は本記事をすっぽかしてでも読んでほしいんですが、
(ChatGPTのアカウント登録から紹介しているので敷居は低いです)
特筆すべきポイントは以下の通りです。
活用事例の紹介
ChatGPTの具体的な利用方法を各シーンごとに示しています。
一部のみ掲載します。
現在抱えている課題と倫理的含意
言及されがちな点のみならず、幅広い視点を網羅しています。
特に後半は現代的な視点。
高等教育機関に求められるChatGPTへの対応
ここが一番大切なパート。入念に記載されています。
そのまま大学の基本方針に据えても十分通用するクオリティです。
最後者の「ChatGPTを理解・管理するための能力の構築」ではデジタルに関するリテラシーの延長にAIリテラシーを掲げる教育を推奨しています。今後の動向がどうあれ、構成員の能力や理解にコミットする姿勢は忘れてはいけません。
また今後のユネスコの動向は要チェックです。
他のおすすめ資料は本記事の最後にまとめています。
ChatGPT利用の思考的枠組み
いきなりですが利用方法や素敵なプロンプトはググれば星の数ほどでてくる上にChatGPTに訊けば十分教えてくれます。なので私自身、プロンプトを共有するモチベーションは低いです。何より情報流通のスピードが早すぎて今日のプロンプトが明日には遺物と化す可能性があります。
(以前、ChatGPTでMidjourneyのプロンプトを生成するプロンプトを共有しました。もっと掲載する意気込みでリポジトリを作りましたが、そこまで更新していません。。)
ですのでここでは大まかに2つの思考的枠組みを紹介します。
もちろんこれはChatGPTに限った方法ではありません。
私は『勉強の哲学』のノリ・ツッコミを連想しました。
■ 抽象化
ある文章や具体的な事象をより圧縮したりメタに捉えたりする。
■ 具象化
ある文章や抽象的な事象をより展開したり下部構造化したりする。
例えばChatGPTに投げる最初の指示「ChatGPTの使い方を100個リスト化して」は”ChatGPTの使い方”というあいまいな事象の具象化です。次の指示「得られたリストを複数にグルーピングして」は"使い方リストを圧縮する"抽象化、最後の指示「グルーピング結果をテーブル化して」も抽象化です。
あとは言語モデルのハルシネーションに注意しましょう。
ChatGPT利用の制約
データ分析者目線の砕けた私見ですがご容赦ください。
■ 安心安全なサービスを提供すること
言い得て妙な例えを拝借します。(ソースを見失いました。。ごめんなさい)
AIを活用しない医者
完全自動で診療・治療するAI
AIを活用する医者
私は直感的に「AIを活用する医者」を選びたいと思いました。人間とAIの良いとこ取りだと考えたからです。これは「大学IRの恩恵を受ける人」と「大学IR担当者」の関係にも通じると思います。人間ってすごい。
■ 報告・連絡・相談・意思決定
ChatGPTによりデータの取り扱いが圧倒的に楽になりますが、
それに伴い報告・連絡・相談が質的に難しくなります。
出力の冪等性が担保されないことは、報告・連絡・相談・意思決定の場において大きなリスクだと認識されるはずです。
どんな業務でも「関係者に納得してもらうこと」が大前提なので、IR担当者から経営陣への報告だけでなく、すべてのホウレンソウを工夫する必要があります。
少なくとも大学では、意思決定も同様で、「運用としてAIに組織の意思決定をさせる」という決定を人間が下すとは思えません。技術的には可能でも、倫理的に避けられるでしょう。意思決定は人間のタスクとして残り続けると考えられます。
実際、出力結果のアカウンタビリティについて、OpenAI社は利用規約で制限しています。規模は違えど、大学でも同じ事態が生じるかもしれません。
■ 外れ値の発見
GPTはその性質上、「最も確率的に続きそうな言葉を出力し続ける」ため、工夫を施さないプロンプトの出力結果は社会通念・共通認識に近い内容になります。奇抜な意見や斬新な発想は出にくいです。
ChatGPTはアインシュタインにはなれません。プロンプトを工夫してデザインすればなんとかなるかもしれませんが、強固なGPTフローの整備・運用が必要です。
適当に外れ値っぽい回答を無理やり引き出すことはできます。
こちらの記事もぜひご参照ください。
■ コンテクストの生成
データ分析に必要なコンテクスト・風習・課題認識そのものを、ChatGPTは生み出せません。組織が積み重ねてきたコンテクストは、連続的な意思決定の賜物です。コンテクストを生成できるAIは、おそらくAGI(汎用人工知能)の完成形で、現実的な『ターミネーター』といえるでしょう。
中長期的な懸念事項
既に大半はユネスコのガイドや阪大のELSIレポートに記載されているので、各所であまり明文化されていない点に重心を置きました。
■ 疲労
今後の利用者増加に伴う心身の疲労リスクを懸念しています。
AI利用者の発言やChatGPTの画面を「AI非利用者が対峙するインターフェース」と捉えれば、インターフェース設計の重要性は開発者のみならず分析者や報告者全般に通ずる話になります。
例えば、私がChatGPTと一緒にコードを生成していた時のことです。
こうした抵抗のために、開発者や分析者は可能な限り疲労なきインターフェース(UI/UX)を志向する必要があると強く思いました。
今後大量に発生するであろう利用者が抱える疲労への想像力と対処が極めて重要です。何より、疲れたら休みましょう。
(参考までに使用プロンプトの一部を掲載しています。あえて可能性を広げる形でイシューを設定したせいで結構手間取りました。プロンプト設計大事。)
■ 多動
AI界隈の情報の多動・流動性は異常です。
自分のスタンスや体調を持ち崩さないようにしないといけません。
今後の脳のリソース管理が非常に重要です。
幸いなことにAI界隈の動向のみ取扱うメディアもありますので活用しましょう。
■ 誤解
既にハルシネーションには言及しました。
似たような誤解や思い違いはこれからも増えると考えられます。
例えば画像生成に関して「AIは既存のイラストを切り貼りしている/コラージュしている」といった、技術的知見不足による誤解も見かけます。
またChatGPTの性質の一つに「使い手のプロンプトの質がそのままChatGPT回答の質に直結する」があります。私はこれを「知の鏡」と表現した以下のツイートが好きでよく引用しています。
しかしこの性質を無視してChatGPTを触った人が「AI使ってみたけどありゃダメだね笑」という悲しい誤解を広めたら終わりです。
(そもそもChatGPTはAIではなくAIを利用したサービスです)
利用者には正しい情報を選択し続ける努力が求められます。
自分で触る一方で、ある程度調べたり、疑ってかかる態度が肝要です。
(万物に対して言えることをしたり顔で書いてしまった)
以下のツイートでは誤解を説明するスライドが紹介されています。
総括:生成AIの禍福
生成AI禍の問題は山積みです。生成AIがセキュリティやプライバシー、モラルの問題を半ば差し置いて急激に発展した事実は否めません。「全力リスクヘッジ型」大学の表明は、多様で強力なリスクから大学の文化を守る必然的行為だと考えられます。
しかし一方で生成AIがもたらす絶大なリターンを無視することはナンセンスです。一部の「理念ドリブン型」大学が打ち出しているように、高等教育機関としての位地を再認識する機会として生成AIと向き合うべきでしょう。
これからも学生と教職員、開発者と利用者、その垣根を超えた対話が不可欠です。あと健康も不可欠です。疲労と戦いましょう。
そして大学における「生成AIの禍福」を決めるのは他でもなく現場の大学関係者各位です。そのためにも、本記事が昨今の生成AI事変を理解する一助になれば幸いです。
この記事を読んだ人におすすめの資料
◆ 生成AIの倫理的・法的・社会的課題(ELSI)論点の概観
https://elsi.osaka-u.ac.jp/system/wp-content/uploads/2023/04/ELSI_NOTE_26_2023_230410.pdf
大阪大学の表明にも参照されたとされるレポート。生成AI界隈の動向が事細かに記載されています。
◆ 自民党AIの進化と実装に関するプロジェクトチーム 資料
OpenAIサム・アルトマン氏の資料をはじめとする各種資料が掲載されています。
◆ ChatGPT・AI の教育関連情報まとめ
東京大学 大学院工学系研究科 吉田塁先生の研究室のWebページ。
生成AI関連の情報が整理されています。
◆ OpenAIの利用規約
開発元の資料をきちんと見ておきましょう。
IR担当者・分析担当者におすすめの資料
IR担当者となればGPTのAPIを取りまわしてゴリゴリ開発する人、ベンダーに開発させる人もいると思います。以下に示す最低限の知識があればスムーズに事が進むかもしれません。
◆ プロンプトエンジニアリングガイド
プロンプトエンジニアリングに関する唯一最上の教科書です。
Twitterで「こんなプロンプトを開発しました!俺っち実はスゴイ??」的なツイートも散見されますがだいたい既に論文になっています。
◆ 大規模言語モデルの脅威と驚異
https://www.youtube.com/watch?v=PUuk4Cv-ycg
機械学習帳の岡崎先生がていねいにLLMについて説明した動画。
自然言語処理の専門家から見たLLMの知見の整理、なんとありがたい。
◆ ChatGPTによって描かれる未来とAI開発の変遷
MicrosoftのHirosatoさんによる講演のスライド資料。本当に本当に貴重な指摘や事例が詰まっています。
ベンダーに「中身はうんたらGPTでしょ?短納期で自動アプリを開発してよ!」なんて口が裂けても言えなくなります。GPTフローとインターフェースの設計は超大切。よくある誤解についても解説のうえ整理されています。
非開発者にも見てほしいです。
◆ OpenAI APIドキュメント
OpenAIが直々にEmbeddingをはじめとする技術をチュートリアルしています。やはりドキュメントが全て。
◆ chatGPTにアドバイスをもらったらデータサイエンスを知って1週間の友人がコンペで上位6.5%に入った話
知識ほとんどなくてもプログラム書けました!の好例。
良い質問は良い結果を生みますね。
この記事が気に入ったらサポートをしてみませんか?