![見出し画像](https://assets.st-note.com/production/uploads/images/106865035/rectangle_large_type_2_8bfb715260f84f1d2aa8baacb9b0e835.png?width=1200)
ChatGPT活用方法勉強会@関内レポート(5/17)
(5/17に横浜関内の「G Innovation Hub YOKOHAMA」にて実施された「ChatGPT活用方法勉強会」の模様をiPhoneで録音、CLOVAnoteで文字起こし、Claude-instant-100kに読み込ませてChatGPTと合せ技で要約しています)※以下の文はChatGPTが基礎を作り加筆修正しています
全体の要約
2023年5月、横浜関内のコワーキングスペースで開催された「ChatGPT活用方法勉強会」では、「ChatGPT」の可能性についての議論が交わされました(参加者41名)
![](https://assets.st-note.com/img/1685372877680-nwahqrvxw0.jpg?width=1200)
イベントはDX人材を育てるオンラインスクールを運営する横山氏が主催。ChatGPTの専門家としてシステムエンジニアの平松氏、クリエイティブカンパニー代表のRyu氏が登壇した。
登壇者のプロフィール
<代表登壇者>
1. サンキャク株式会社(動画制作xSNS運用xブランディング支援会社)
代表取締役 竹内竜太 @ChatGPTプロンプト/使いこなし担当
2. 合同会社ReDesign Market Technologies(システムインテグレーション事業会社)
代表者 平松 猛男 @ChatGPT技術全般担当
3. WHITE株式会社(スタートアップ/DX支援サービス)
代表取締役 横山 隆 @ChatGPTのAPI関連担当
横山さんによる「ChatGPTとは?」
横山氏によるChatGPTの解説では、ChatGPTがOpenAIが開発した会話型AIで、人間の自然な文章を生成できる点が特筆されました。彼はこれを「自然言語処理」と表現し、人間の自然な言語(日本語など)をコンピュータが処理する技術と定義しました。
![](https://assets.st-note.com/img/1685373048278-2GgeR9OmoE.jpg?width=1200)
横山氏はまた、ChatGPTは質問に対する応答を生成し、さまざまな課題を解決する能力があると強調しました。例えば、レシピの作成、コードの生成、SQLクエリの作り方など、多岐に渡るタスクを実行できることを挙げました。さらに、質問のやりとりを積み重ねることでAIの精度が高まると述べ、適切な質問をすることの重要性を指摘しました。
その他、横山氏はChatGPTがプログラミングなしでWebアプリケーションを生成したり、特定の関数を教えてくれる能力についても触れました。彼は、これらの機能を見て「ChatGPTの能力には実際に驚かされる」と評価しました。
横山氏の解説は、ChatGPTの基本的な機能とその活用例を紹介することで、参加者に対してAIの可能性とその具体的な利用法を示す形となりました。
横山さんによるChatGPTの活用例は?
横山氏によると、ChatGPTの活用は自分の作業を助けるだけでなく、一部の作業を代行するという意味で、広範かつ効果的であると述べています。
彼が言及した具体的な活用例の一つは、エクセルの関数作成です。横山氏は、ChatGPTにエクセルの関数を書いてもらい、それを実際に使用していると述べました。これはAIが単純な情報提供だけでなく、具体的なタスクを遂行する能力を示しています。
さらに、質問を繰り返すことでChatGPTの精度が向上し、より良い結果を得られると彼は指摘しました。このことから、上手な質問をする能力がAIを活用する上で重要であることが強調されています。
横山氏が驚いたChatGPTの能力として、Webアプリケーションの生成を挙げています。彼によれば、ChatGPTはコーディングなしで機能するWebサービスを作り出すことができました。また、エクセルのデータをChatGPTに与えると、それがSQL文に変換されるという経験もシェアしました。
最後に、横山氏はChatGPTのAPIを使ったサービス開発について触れ、それでもやはり質問する力が重要だと強調しています。これらの活用例を通じて、ChatGPTが作業の効率化や自動化を実現する強力なツールであることが示されています。
RyuさんのChatGPT活用例は?
Ryuさんは、様々な側面でChatGPTの活用を進めているようです。彼が挙げた一部の活用例を以下にまとめてみます:
文章の作成: Ryuさんは、メール、ブログ記事、メルマガ、プレゼン資料などの文章作成にChatGPTを使用しています。これにより、文章作成の効率化と品質向上を実現しているようです。
会議の議事録: Ryuさんは、録音した会議の内容をChatGPTで要約し、議事録を作成しています。これにより、会議内容の把握と整理が簡易化され、時間の節約が可能となります。
Webサイト作成、分析ツール、3Dモデリング: ChatGPTは、これらのタスクにおいても支援を提供します。具体的な使用方法については会話記録から明らかでないですが、Ryuさんはこれらのツールや技術を使用する際にChatGPTを活用しているようです。
音声入力による対話: Ryuさんは、音声入力を使ってChatGPTと対話しており、これにより更なる手間の削減を実現しています。
APIを利用したChatGPTアプリの開発: Ryuさんは、ChatGPTのAPIを活用して自身のアプリケーションを開発しています。これにより、自身の特定のニーズに合わせてChatGPTをカスタマイズできます。
質問文の整理: Ryuさんは、Chromeの機能拡張を利用してよく使う質問文を整理しています。これにより、ChatGPTへの質問を効率的に行えます。
複数のAIの使い分け: Ryuさんは、ChatGPTだけでなくBing,Bardも使用しています。それぞれのAIの長所を活かしながら使い分けているようです。
![](https://assets.st-note.com/img/1685373101175-hryXfI1R40.jpg?width=1200)
会話の中で、横山さんと平松さんが「RyuさんのChatGPT活用は上級者レベルだと感じる」と話したのに対し、Ryuさんは「そんなこと言わないで」と謙虚に応えています。
ChatGPTをさらに使いこなすためには、AIに対する質問のスキルが重要であると述べています。これは、AIを効果的に活用するためには、AIの能力を理解し、それに適した質問をすることが重要であるという点を強調していると言えます。
平松さん解説のトランスフォーマーの仕組み
平松氏が深層学習技術の1つである「トランスフォーマー」について詳細に解説しました。トランスフォーマーは、ChatGPTという会話型AIの基礎技術の一つであり、人間が思考する際の複雑さを模倣することが可能とされています。
平松氏は、トランスフォーマーの仕組みを具体的に解説しました。まず、この技術は入力データから正解データ(単語)を学習します。例えば、「昔 昔あるところに」というフレーズが入力されると、「おじいさん」という単語が出力として学習されると説明しました。
そして、この学習を反復することで、次に出力される単語の確率が計算されます。具体的には、「昔 昔あるところに 次に出る単語の確率は?」と問いかけると、「おじいさんが70%」「おばあさんが20%」といった具体的な確率で回答が得られます。このように、トランスフォーマーは入力に対する出力確率を学習し、計算する能力を有しています。
平松氏は、このトランスフォーマーがChatGPTの基盤技術となっていると強調しました。つまり、トランスフォーマーによって、ChatGPTはより複雑な文章を予測し、生成する能力を持つことができます。人間が自然に行う言葉の連想や文脈理解をAIが行うという、これまでにない新しい可能性を示しています。
今後もトランスフォーマーを始めとする深層学習技術の進化に注目が集まりそうです。それは、人間とAIのコミュニケーションの可能性を広げ、よりリアルな対話体験を提供するための鍵となるからです。
平松さん解説の「深層学習のしくみ」
深層学習の仕組みについての平松氏の解説がありました。深層学習は、人間の脳細胞(ニューロン)に似た構造を持つことが特徴で、その基礎構造がChatGPTという会話型AIの根幹を成すと述べました。
平松氏は、深層学習の基本となるニューロンの仕組みについて語りました。ニューロン同士は伝達によって結ばれ、情報をやり取りします。このニューロンの構造はChatGPTの基本構造となっていて、ニューロンの数がChatGPTのパラメータ数に対応しています。
ニューロンにはそれぞれ重み(重要度)が設定されており、この重みを調整することで学習が行われます。具体的には、学習データに基づいてパラメータを調整し、正解データに近い出力を生成するようになるとのこと。
平松氏は、深層学習のニューロン回路という考え方がChatGPTの基盤となっており、ニューロンと結合の数(パラメータ数)が多ければ多いほど精度が上がると説明しました。この深層学習のしくみにより、ChatGPTは人間の自然な文章を理解し生成することが可能となっています。
このような深層学習技術の発展は、人工知能が人間の自然な言葉の理解と生成の能力を持つことを可能にしており、今後の技術進展にも大いに期待が持てます。
平松さん解説の「GPTの学習の流れ」
GPTの学習プロセスは、基本的に7つのステップに分けられます。
まず、大量のデータセット(インターネット上のデータなど)から学習を開始します。このステージでは、大量のテキストデータからパターンを抽出し、それらを用いて文章生成の基礎を築きます。
次に、トランスフォーマーと呼ばれるモデルを利用して予測モデルを生成します。トランスフォーマーモデルは、入力データと出力データ(正解データ)を与えられると、入力から出力を予測する能力を学習します。
生成された出力文が正しいかどうかを評価し、フィードバックを提供します。このフィードバックは、「合ってますよ」もしくは「間違いですよ」といった形で与えられます。
繰り返しの学習を通じてモデルは徐々に改善され、最終的にはChatGPTとなります。この過程で、パラメーター数(ニューロンの数)が増えることで、精度も向上します。
最後に、モデルには「ファインチューニング」と呼ばれる微調整が加えられます。これにより、モデルは特定のタスクや文脈においてさらに高いパフォーマンスを発揮するようになります。
平松氏によれば、この一連の学習の流れにより、GPTは人間のような自然な文章を生成する能力を持つようになります。それは、大量のデータから予測モデルの作成、繰り返しのフィードバックに基づく学習、そしてパラメーター数の増加とファインチューニングという段階を経て達成されます。これはAIの進化と人間の言語理解能力の向上に大いに貢献しています。
![](https://assets.st-note.com/img/1685373143196-40yVd3L6NM.jpg?width=1200)
マルチモーダルについてどのような会話がありましたか?
現在のChatGPTはテキストに対応していることから始まりました。しかし、平松さんは将来的には写真、動画、音声といった他のモーダリティにも対応することが可能になるだろうと述べました。
特に、横山さんはカイバーのように、文字を入力するだけで自動的に動画が作成されるという機能に驚きを示しました。それに続いてRyuさんは、カイバーが音楽からでも動画を生成できることを紹介し、将来的にはテキスト、動画、音楽を組み合わせて作品を作成できるようになる可能性について言及しました。
平松さんはさらに、GPT4では画像の処理にも対応しており、将来的には画像を入力として与え、それに基づいて文章を生成することも可能になるだろうと説明しました。また、pdfファイルなどの他の形式の入力からも生成できる可能性があることを指摘しました。
さらに、Ryuさんは絵から文章への変換機能にも期待を寄せ、文章で3Dモデリングの指示を出すことができるようになることを望んでいました。
これらの会話から、マルチモーダル化に関する期待が高まっていることが伺えます。将来的には、ChatGPTが画像、動画、音声など多様な入力に対応し、その情報をもとに文生成や作品作成が可能になるかもしれません。ただし、現時点ではテキストが主要な入力形式となっていることは確かです。
マルチモーダル化の進化は、ChatGPTがますます多様なコンテンツに対応し、ユーザーエクスペリエンスを向上させる可能性を秘めています。今後のChatGPTの発展に注目が集まります。
おわりに
このイベントでは、異なる背景や考え方を持つ参加者がChatGPTに関する知識や意見を交換する機会がありました。参加者たちは、ChatGPTの利点を認識しつつも、今後の責任あるAI開発に関する重要な懸念も提起しました。ChatGPTのような先端技術がもたらすチャンスと課題の両方が浮き彫りになったディスカッションとなりました。
全体として、参加者たちはChatGPTの体験に興奮し、さまざまなユースケースについての議論を通じて洞察を得ることができました。また、今後のAIの発展に向けて、倫理的な側面や技術の制約に関する懸念を共有しました。このイベントは、参加者がChatGPTの可能性と限界を理解すると同時に、AIの進化に伴う重要な課題について議論する貴重な場となりました。
![](https://assets.st-note.com/img/1685373183417-sT79Giw0MO.jpg?width=1200)
この記事が参加している募集
この記事が気に入ったらサポートをしてみませんか?