![見出し画像](https://assets.st-note.com/production/uploads/images/104097922/rectangle_large_type_2_e0e5082ab7a6484b19bcc9cdf06c43ba.png?width=1200)
覚書:生成AIと大学組織の動向
この記事のポイント:
◆ 大学関係者はユネスコのChatGPT利用ガイドを読むべし
◆ ChatGPTは文章を抽象化・具象化するサービスである
◆ 最大の懸念は”疲労”だ
2023年4月時点での大学と生成AIの動向について、ChatGPTの利用や制約と併せて書きました。
この記事は、
■ 生成AIの利用有無を問わず、全ての大学関係者に向けて書きました。大学IRおよび大学の業務全般に関わる内容を含みます。
■ この1ヶ月間蓄積された私の所感です。その性質上、直近一ヶ月の間に書いた記事の自己引用が多いです。
■ 生成AI(LLMM,画像生成AI)のユーザーでありプレイヤーが書きました。自然言語処理の専門家ではありません。
前回(2023年3月)のおさらい
■ 大学IR業務をChatGPTが担うシミュレーション
→抽象言語オブジェクト(powered by 落合陽一)的な架空の大学職員を用いた仮想実験を行った。これぞ抽象と具象の行き来。
■ これからの大学IR業務について
→ニンゲンの業務はまだ結構あるので言うほど心配はしなくて良いと思う
生成AIと大学組織の動向
■ 【概略】表明した大学一覧の分析
生成AIは大学の諸活動全てに影響を与えます。
史上稀に見る事変かもしれません。
強力な外的影響という点で共通しているコロナ禍との違いは、今回の事変が生成AI禍であり生成AI福でもあることです。薬も過ぎれば毒となる。その塩梅や味付けに苦心されている大学が多い印象を受けました。
2023年4月28日12:00時点で正式に生成AI等への対応を外部に公表した国内大学の数は44に上ります(URLベースで換算;実際の大学数とは異なります)。
このほか学内でのみ表明した大学(青学、静大、九大等)が報道されているので少なくとも50近い大学組織が学生/教職員に何らかの意思や方針を表明したことになります。
![](https://assets.st-note.com/img/1682651328629-4jl8k6TonG.png?width=1200)
生成AIへの大学の反応は様々です。
この表明を見るに、大学を「全力リスクヘッジ型」と「理念ドリブン型」の2種類に大別できるかもしれません。
◆ 全力リスクヘッジ型
生成AI禍に学生/教職員の知性が飲まれることを最大限回避しようと試みる
◆ 理念ドリブン型
大学組織としての理念や文脈、組織哲学を以てして生成AI禍のリスクと生成AI福のリターンを包摂しようと試みる
全力リスクヘッジ型の例:
理念ドリブン型の例:
※ 詳しくは現在分析中なので、どこかで発表したら資料を共有します。
■ 【概略】ユネスコの"ChatGPT利用ガイド"
では大学関係者の方々が生成AIに正しく取り組むためには、どのような点に留意すべきか、また何を考慮する必要があるか。
と、ぼんやり考えている間にユネスコが綿密な調査を行い、明確かつ分かり易く言語化しました。終わり。
まだ読んでいない人は本記事をすっぽかしてでも読んでほしいんですが、
(ChatGPTのアカウント登録から紹介しているので敷居は低いです)
特筆すべきポイントは以下の通りです。
活用事例の紹介
ChatGPTの具体的な利用方法を各シーンごとに示しています。
一部のみ掲載します。
大学事務業務(アドミニストレーション)におけるChatGPTの利用方法
* 応募者(入学希望者)からの問合せ対応
* 受講の申し込み、受講条件の確認、事務的な情報(試験の時間割、教室の場所など)の確認などをサポートする。
* ニュースや資料などの情報を探す
* リマインダーや通知を送信する
* 外国人学生・職員向け情報の翻訳
研究プロセスにおけるChatGPTの利用方法
* Research Design
* Data Collection
* Data Analysis
* Writing up
現在抱えている課題と倫理的含意
言及されがちな点のみならず、幅広い視点を網羅しています。
特に後半は現代的な視点。
* 研究インテグリティ
* 規制の欠如
* プライバシーに関する懸念
* 認知バイアス
* ジェンダーとダイバーシティ
* アクセシビリティ
* 商業化
高等教育機関に求められるChatGPTへの対応
ここが一番大切なパート。入念に記載されています。
そのまま大学の基本方針に据えても十分通用するクオリティです。
* 慎重かつ創造的なChatGPTの使用
* ChatGPTを理解・管理するための能力の構築
* AI監査(an AI audit)を行う
最後者の「ChatGPTを理解・管理するための能力の構築」ではデジタルに関するリテラシーの延長にAIリテラシーを掲げる教育を推奨しています。今後の動向がどうあれ、構成員の能力や理解にコミットする姿勢は忘れてはいけません。
また今後のユネスコの動向は要チェックです。
…2023年後半には、ユネスコIESALCが発行する「高等教育
におけるAIに関するマニュアル」が発行される予定です。これは、高
等教育のための世界初の包括的なガイドになると考えられています。
他のおすすめ資料は本記事の最後にまとめています。
ChatGPT利用の思考的枠組み
ここからは具体的なChatGPT利活用について触れます。
あまりChatGPTを触っていない人向けです。
いきなりですが利用方法や素敵なプロンプトはググれば星の数ほどでてくる上にChatGPTに訊けば十分教えてくれます。なので私自身、プロンプトを共有するモチベーションは低いです。何より情報流通のスピードが早すぎて今日のプロンプトが明日には遺物と化す可能性があります。
(以前、ChatGPTでMidjourneyのプロンプトを生成するプロンプトを共有しました。もっと掲載する意気込みでリポジトリを作りましたが、そこまで更新していません。。)
ですのでここでは大まかに2つの思考的枠組みを紹介します。
もちろんこれはChatGPTに限った方法ではありません。
私は『勉強の哲学』のノリ・ツッコミを連想しました。
■ 抽象化
ある文章や具体的な事象をより圧縮したりメタに捉えたりする。
■ 具象化
ある文章や抽象的な事象をより展開したり下部構造化したりする。
例えばChatGPTに投げる最初の指示「ChatGPTの使い方を100個リスト化して」は”ChatGPTの使い方”というあいまいな事象の具象化です。次の指示「得られたリストを複数にグルーピングして」は"使い方リストを圧縮する"抽象化、最後の指示「グルーピング結果をテーブル化して」も抽象化です。
![](https://assets.st-note.com/img/1682634676670-sw3U9TPX9D.png?width=1200)
あとは言語モデルのハルシネーションに注意しましょう。
言語モデルのhallucination (幻覚、錯覚)について勘違いしている人たまに見かけるので、具体例を交えて説明します
— Kyo (@kyo_takano) April 2, 2023
Hallucinationというのは「事実に反することやデタラメを出力する現象」を指します
🧵
ChatGPT利用の制約
もちろんChatGPTにできないこと、制約事項はあります。
すぐ克服されそうな気もしますが。
データ分析者目線の砕けた私見ですがご容赦ください。
■ 安心安全なサービスを提供すること
言い得て妙な例えを拝借します。(ソースを見失いました。。ごめんなさい)
あなたは病気がちな患者です。
どの医者をかかりつけ医に選びますか?
AIを活用しない医者
完全自動で診療・治療するAI
AIを活用する医者
私は直感的に「AIを活用する医者」を選びたいと思いました。人間とAIの良いとこ取りだと考えたからです。これは「大学IRの恩恵を受ける人」と「大学IR担当者」の関係にも通じると思います。人間ってすごい。
■ 報告・連絡・相談・意思決定
ChatGPTによりデータの取り扱いが圧倒的に楽になりますが、
それに伴い報告・連絡・相談が質的に難しくなります。
※広義の連絡や相談はGPTで可能ですが、ここでは狭義の"人間関係/組織関係における"連絡・相談とさせてください。
出力の冪等性が担保されないことは、報告・連絡・相談・意思決定の場において大きなリスクだと認識されるはずです。
どんな業務でも「関係者に納得してもらうこと」が大前提なので、IR担当者から経営陣への報告だけでなく、すべてのホウレンソウを工夫する必要があります。
少なくとも大学では、意思決定も同様で、「運用としてAIに組織の意思決定をさせる」という決定を人間が下すとは思えません。技術的には可能でも、倫理的に避けられるでしょう。意思決定は人間のタスクとして残り続けると考えられます。
実際、出力結果のアカウンタビリティについて、OpenAI社は利用規約で制限しています。規模は違えど、大学でも同じ事態が生じるかもしれません。
⼤規模⾔語モデル(LLM)が不正確な情報を⽣成した場合に誰がその責任を負うことになるのか、明らかにしておく必要がある。そのため、OpenAI社は利⽤規約において、個別の法的アドバイス、⾦融アドバイス、医療アドバイス、そして法執⾏や刑事司法、移⺠と亡命に関することなどの⾼リスクな政府意思決定に利⽤することを禁じている。
■ 外れ値の発見
GPTはその性質上、「最も確率的に続きそうな言葉を出力し続ける」ため、工夫を施さないプロンプトの出力結果は社会通念・共通認識に近い内容になります。奇抜な意見や斬新な発想は出にくいです。
ChatGPTはアインシュタインにはなれません。プロンプトを工夫してデザインすればなんとかなるかもしれませんが、強固なGPTフローの整備・運用が必要です。
適当に外れ値っぽい回答を無理やり引き出すことはできます。
![](https://assets.st-note.com/img/1682635572359-RnTU89oJfP.png?width=1200)
こちらの記事もぜひご参照ください。
■ コンテクストの生成
データ分析に必要なコンテクスト・風習・課題認識そのものを、ChatGPTは生み出せません。組織が積み重ねてきたコンテクストは、連続的な意思決定の賜物です。コンテクストを生成できるAIは、おそらくAGI(汎用人工知能)の完成形で、現実的な『ターミネーター』といえるでしょう。
ぶっちゃけ「コンテクストの生成」はMGS2というゲームの受け売りです。
人間に対するAGI("愛国者たち")による説教が示唆に富む傑作でして…いつか記事で紹介します。
中長期的な懸念事項
ここからChatGPTを含む、生成AI全般に通ずる懸念事項について書きます。
少し開発者/分析者目線になるかもしれません。
既に大半はユネスコのガイドや阪大のELSIレポートに記載されているので、各所であまり明文化されていない点に重心を置きました。
■ 疲労
今後の利用者増加に伴う心身の疲労リスクを懸念しています。
現在発表されている生成AIのインターフェースは発展途上の段階にあり、触るとケガをするリスクを排除できていません。極端な例を挙げますが、ボタンが無い配線むき出しの洗濯機を活用するようなものです。洗濯機の扱いに熟知したエンジニア界隈や一握りの秀才が的確に扱えているだけです。
AI利用者の発言やChatGPTの画面を「AI非利用者が対峙するインターフェース」と捉えれば、インターフェース設計の重要性は開発者のみならず分析者や報告者全般に通ずる話になります。
例えば、私がChatGPTと一緒にコードを生成していた時のことです。
従来より非常に効率良く作業できましたが、作業中に脳のリソースを強制的に回転されるような知的疲労を感じました。AutoGPT使用時も同様の疲労を感じています。
原因は際限なく動き続けるGPTに自分まで同調してしまったことだと考えられます。私はこの疲労を心底楽しみましたが、多くの利用者にとっては"害悪""AIへの心的抵抗"になるかもしれません。
こうした抵抗のために、開発者や分析者は可能な限り疲労なきインターフェース(UI/UX)を志向する必要があると強く思いました。
今後大量に発生するであろう利用者が抱える疲労への想像力と対処が極めて重要です。何より、疲れたら休みましょう。
(参考までに使用プロンプトの一部を掲載しています。あえて可能性を広げる形でイシューを設定したせいで結構手間取りました。プロンプト設計大事。)
■ 多動
AI界隈の情報の多動・流動性は異常です。
特に3月は、月の頭にChatGPTがGPT-3.5-TurboとしてAPIとともに発表され、値段が1/10になり、その翌週にはGPT-4が発表され、また値段が10倍になり、さらに翌週にはChatGPTの機能を飛躍的に高めるChatGPT Pluginが発表されるという、人類の技術進歩の歴史から見ても控えめに言って「天変地異が毎週起きる」みたいなことが人為的に引き起こされている。
自分のスタンスや体調を持ち崩さないようにしないといけません。
今後の脳のリソース管理が非常に重要です。
幸いなことにAI界隈の動向のみ取扱うメディアもありますので活用しましょう。
■ 誤解
既にハルシネーションには言及しました。
似たような誤解や思い違いはこれからも増えると考えられます。
例えば画像生成に関して「AIは既存のイラストを切り貼りしている/コラージュしている」といった、技術的知見不足による誤解も見かけます。
またChatGPTの性質の一つに「使い手のプロンプトの質がそのままChatGPT回答の質に直結する」があります。私はこれを「知の鏡」と表現した以下のツイートが好きでよく引用しています。
私はGPTを知の鏡だと思っています。知の鏡とは、自分の知能を反射してくれる存在だと思っています。多くの人が混乱していますが、動物が鏡に混乱するように、この知の鏡が今まで存在しなかったためだと思います。知の鏡は自分の知能を補う働きがあると考えます。 https://t.co/5aIfnV1s3T
— あるふ (@alfredplpl) March 22, 2023
しかしこの性質を無視してChatGPTを触った人が「AI使ってみたけどありゃダメだね笑」という悲しい誤解を広めたら終わりです。
(そもそもChatGPTはAIではなくAIを利用したサービスです)
利用者には正しい情報を選択し続ける努力が求められます。
自分で触る一方で、ある程度調べたり、疑ってかかる態度が肝要です。
(万物に対して言えることをしたり顔で書いてしまった)
そしてこうした努力・態度は大多数の人(非常に広い範囲を指しています)にとって結構な"疲労"になると思うんです。本当に。どうか無理しない範囲で利用しましょう。
以下のツイートでは誤解を説明するスライドが紹介されています。
今日、説明につかった図。 pic.twitter.com/ZMBE33aaXj
— 深津 貴之 / THE GUILD / note.com (@fladdict) April 28, 2023
総括:生成AIの禍福
本記事では生成AIと大学組織の動向および生成AI利用の禍福について紹介しました。
生成AI禍の問題は山積みです。生成AIがセキュリティやプライバシー、モラルの問題を半ば差し置いて急激に発展した事実は否めません。「全力リスクヘッジ型」大学の表明は、多様で強力なリスクから大学の文化を守る必然的行為だと考えられます。
しかし一方で生成AIがもたらす絶大なリターンを無視することはナンセンスです。一部の「理念ドリブン型」大学が打ち出しているように、高等教育機関としての位地を再認識する機会として生成AIと向き合うべきでしょう。
これからも学生と教職員、開発者と利用者、その垣根を超えた対話が不可欠です。あと健康も不可欠です。疲労と戦いましょう。
そして大学における「生成AIの禍福」を決めるのは他でもなく現場の大学関係者各位です。そのためにも、本記事が昨今の生成AI事変を理解する一助になれば幸いです。
この記事を読んだ人におすすめの資料
◆ 生成AIの倫理的・法的・社会的課題(ELSI)論点の概観
https://elsi.osaka-u.ac.jp/system/wp-content/uploads/2023/04/ELSI_NOTE_26_2023_230410.pdf
大阪大学の表明にも参照されたとされるレポート。生成AI界隈の動向が事細かに記載されています。
◆ 自民党AIの進化と実装に関するプロジェクトチーム 資料
OpenAIサム・アルトマン氏の資料をはじめとする各種資料が掲載されています。
◆ ChatGPT・AI の教育関連情報まとめ
東京大学 大学院工学系研究科 吉田塁先生の研究室のWebページ。
生成AI関連の情報が整理されています。
◆ OpenAIの利用規約
開発元の資料をきちんと見ておきましょう。
IR担当者・分析担当者におすすめの資料
IR担当者となればGPTのAPIを取りまわしてゴリゴリ開発する人、ベンダーに開発させる人もいると思います。以下に示す最低限の知識があればスムーズに事が進むかもしれません。
◆ プロンプトエンジニアリングガイド
プロンプトエンジニアリングに関する唯一最上の教科書です。
Twitterで「こんなプロンプトを開発しました!俺っち実はスゴイ??」的なツイートも散見されますがだいたい既に論文になっています。
◆ 大規模言語モデルの脅威と驚異
https://www.youtube.com/watch?v=PUuk4Cv-ycg
機械学習帳の岡崎先生がていねいにLLMについて説明した動画。
自然言語処理の専門家から見たLLMの知見の整理、なんとありがたい。
◆ ChatGPTによって描かれる未来とAI開発の変遷
MicrosoftのHirosatoさんによる講演のスライド資料。本当に本当に貴重な指摘や事例が詰まっています。
ベンダーに「中身はうんたらGPTでしょ?短納期で自動アプリを開発してよ!」なんて口が裂けても言えなくなります。GPTフローとインターフェースの設計は超大切。よくある誤解についても解説のうえ整理されています。
非開発者にも見てほしいです。
◆ OpenAI APIドキュメント
OpenAIが直々にEmbeddingをはじめとする技術をチュートリアルしています。やはりドキュメントが全て。
◆ chatGPTにアドバイスをもらったらデータサイエンスを知って1週間の友人がコンペで上位6.5%に入った話
知識ほとんどなくてもプログラム書けました!の好例。
良い質問は良い結果を生みますね。
この記事が気に入ったらサポートをしてみませんか?