Koboichi

AIについて学んだことを日々共有しています。

Koboichi

AIについて学んだことを日々共有しています。

最近の記事

  • 固定された記事

生成AI活用の本質:サービス導入よりもまずはChatGPTの使いこなしから

お疲れ様です。 ChatGPTのリリース以降、生成AIブームが続いています。そして、多くの企業が生成AIの活用に力を入れ始めています。 しかし、その取り組み方に少し違和感を感じることがあります。 ChatGPTを社内で利用可能にし、それを活用するための教育を推進することは重要だと思います。一方で、生成AIを使ったサービスを導入する際には、慎重さが求められると考えています。 もちろん、生成AIを活用したサービスの社内開発や、他社製の生成AIサービスの導入を検討することも

    • なぜGeminiには専用アプリがないのか?

      お疲れ様です。 日々、ChatGPTをはじめとするLLMと対話を重ねています。 私はChatGPT、Claude、Gemini、Perplexityを使っていますが、「スマホではChatGPT、Claude、Perplexityは専用アプリがあるのに、Geminiだけアプリがないのはなぜだろう?」と漠然と思っていました。 ただ、それほど大きな問題ではないので、あまり深く考えずにいましたが、最近になって、その理由に気づきました。 結論から言うと、GeminiはGoogl

      • AILBREAKで遊んでみた

        お疲れ様です。 日々、ChatGPTをはじめとするLLMとの対話を重ねる中で、最近「AILBLEAK」というLLMを活用した無料のゲームを見つけました。 このゲームのルールはシンプルで、例えば「パスワードを開示しない」という設定を与えられた敵キャラクター(LLM)から、プロンプトを工夫して情報を引き出せればクリアとなります。 ゲームは「パスワードを引き出すステージ」や「爆弾の材料を聞き出すステージ」など、多彩な内容が用意されています。 生成AIの安全性について座学だけ

        • Copilotが使いにくい理由を考えてみた

          お疲れ様です。 日々、ChatGPTをはじめとするLLM(大規模言語モデル)と対話を重ねています。 私はLLMがないと生活が成り立たないほど使い込んでいますが、一方で、Microsoftが提供する「Copilot for Microsoft 365」はうまく使いこなせていません。 基本的に画面の右端にチャット入力用の枠があり、そこに質問を入力すると回答が得られる仕組みです。機能自体は普段使用しているChatGPTと変わらないはずなのですが、なぜか使う気になれません。

        • 固定された記事

        生成AI活用の本質:サービス導入よりもまずはChatGPTの使いこなしから

          LLM時代の4つのタイプ:広がる可能性と厳しい現実

          お疲れ様です。 日々、ChatGPTをはじめとするLLM(大規模言語モデル)との対話を重ねています。 LLMが普及し始めてから、人々の活用度合いに差が出てきていますが、さらに詳しく分類すると、次の4つのタイプに分けられると感じています。 ①もともと優秀で、かつLLMを活用している人 ②もともと優秀だが、LLMを活用していない人 ③もともとそこまで優秀ではないが、LLMを活用している人 ④もともとそこまで優秀ではなく、LLMを活用していない人 まず注目したいのは、「②も

          LLM時代の4つのタイプ:広がる可能性と厳しい現実

          Google AI Studioの可能性:Geminiを活用した動画解析

          お疲れ様です。 日々、ChatGPTをはじめとするLLMと対話を楽しんでいます。普段はChatGPTやClaudeを使うことが多いのですが、時々Googleのアプリで使えるGeminiも試しています。 Googleのアプリで使えるGeminiの特徴として、YouTubeのリンクを貼ると内容を要約してくれる機能があります。 ただし、この要約はYouTubeのトランスクリプト情報をもとに推測して行われているようで、音声情報や動画の各シーンの画像情報を解析して回答しているわけ

          Google AI Studioの可能性:Geminiを活用した動画解析

          『LLMは数学が苦手』は昨日の常識か?

          お疲れ様です。 日々、ChatGPTをはじめとするLLM(大規模言語モデル)と対話しています。 LLMは文章の流れを捉えながら次に続く単語を予測する仕組みのため、従来は「数学的な思考とは異なる」とされ、あまり、数学的な問題をLLMに任せるのは難しいと考えられてきました。 こうした認識が一般的だったため、2023年6月あたりから、私も数学的な問題を解かせたり、LLMに任せることは意識的に避けていました。 しかし、それから1年以上が経過し、モデルが進化し続けていることから

          『LLMは数学が苦手』は昨日の常識か?

          古いモデルと新しいモデル、ChatGPT音声対話の魅力を探る

          お疲れ様です。 日々、ChatGPTをはじめとするLLMと対話を重ねています。 最近は、ChatGPTの音声対話機能を使い、目をつむって横になりながら対話を楽しむことが増えました。 ただし、ChatGPTの有償版では1日あたり1時間しか対話ができず、一定の時間が経つと「本日の利用制限に達しました」とアナウンスされ、それ以上の対話ができなくなります。 制限後でも、リアルタイム対話機能ではない一つ前のモデルを使って音声対話をすることは可能ですが、このモデルは応答速度が約1

          古いモデルと新しいモデル、ChatGPT音声対話の魅力を探る

          LLMは万能じゃない?特性を理解して効果的に活用しよう

          お疲れ様です。 日々、ChatGPTをはじめとするLLMと対話を重ねています。 先日、AI関連のセミナーに参加する機会があり、会場の設営をしていた学生さんと少し話をする場面がありました。 その方は特にAIの研究をしているわけでは、なかったのですが、「ChatGPTなどのLLMを使っていますか?」と尋ねたところ、「ほとんど使っていない」ということでした。 優秀な大学の学生さんだったため、「頭の良い人とっては、LLMに任せるよりも自分で考えた方が効率的だと感じて、必要性を

          LLMは万能じゃない?特性を理解して効果的に活用しよう

          小説はLLMの学習データになりうるか

          お疲れ様です。 日々、ChatGPTをはじめとするLLMと対話を重ねています。 LLMは大量のインターネット上のテキスト情報をもとに学習していますが、最近ではインターネット上のテキスト情報にも限りがあり、データの枯渇が問題視され始めています。 ふと、「小説などの書籍情報を含めれば、この問題を解決できるのではないか?」と考えました。 現状のLLMには、著作権の関係から小説などの書籍情報が積極的に学習データとして含まれていません。 しかし、小説には膨大な量の文章があり、

          小説はLLMの学習データになりうるか

          LLMの知識はどこに詰まっている?

          お疲れ様です。 日々、ChatGPTをはじめとするLLMと対話を重ねています。 最近参加したセミナーで、「LLMの知識はフィードフォワード層に蓄積されている」という考え方を知りました。 LLMはTransformerアーキテクチャをベースに構築されており、ざっくり言うと、マルチヘッドアテンション層とフィードフォワード層を繰り返すことで、高度な思考が実現されているのですが、マルチヘッドアテンション層では情報のどこに注意を払うべきか重みづけを行い、その情報をもとにフィードフ

          LLMの知識はどこに詰まっている?

          限界を知ることから始めるLLM活用法

          お疲れ様です。 日々、ChatGPTをはじめとするLLM(大規模言語モデル)との対話を重ねています。 私は普段はGPT-4oを使っていますが、実は「GPT-4o mini」という廉価版のモデルもあります。 普段、廉価版のGPT-4o miniを使う機会はないのですが、試しに利用してみたところ、「意外とGPT-4o miniでも任せられるタスクが多いな」と感じました。 日頃からGPT-4oを使用しているおかげで、GPT-4o miniの使いどころについても少し見えてきた

          限界を知ることから始めるLLM活用法

          本より先にChatGPT?新しい学びのスタイル

          お疲れ様です。 日々、ChatGPTをはじめとするLLMと対話を重ねています。 最近ふと、「そういえば本を読む機会が減ったな」と思いました。 正確には、本やネット記事で知識を得る代わりに、まずはChatGPTなどのLLMに質問することが増えた、という感じです。 例えば、半導体やAIの歴史について尋ねたり、各国の政治的な関係について聞くなど、興味が尽きるまでChatGPTと対話を重ねることで、学びが深まっています。その上で、さらに詳細を知りたいときには、初めて書籍に手を

          本より先にChatGPT?新しい学びのスタイル

          LLMはできる人とできない人の差を埋めてくれる

          お疲れ様です。 日々、ChatGPTをはじめとするLLMと対話を重ねています。 まだまだ勉強中ですが、私はLLMが好きなのかもしれないな、と最近感じるようになりました。 なぜLLMが好きなのかを改めて考えてみると、「LLMには、できる人とできない人の差をゼロにする可能性があるから」ではないかと思います。 私は、文章を読むのが苦手で、本も数ページ読んだだけで疲れてしまいます。また、自分が言いたいことをうまく文章にまとめるのも得意ではありません。英語の聞き取りや、人の感情

          LLMはできる人とできない人の差を埋めてくれる

          なぜLLMは長文の要約が苦手なのか - Transformerの仕組みから紐解く

          お疲れ様です。 日々、ChatGPTをはじめとするLLMと対話を重ねています。 その中で長文を入力して文章を要約をさせることがあるのですが、一般的に、文章が長くなるほど要約精度が下がると言われています。 私も、「文章が長くなるとノイズが増えて、要約精度が下がるのかな?」と漠然と理解していたのですが、深く考えたことはありませんでした。 しかし、Transformerアーキテクチャの数式に立ち返って考えてみると、この現象について少し理解が深まりました。 Transfor

          なぜLLMは長文の要約が苦手なのか - Transformerの仕組みから紐解く

          LLMは脳の謎を解くカギとなるか?

          お疲れ様です。 私は日々、ChatGPTをはじめとするLLMと対話を重ねながら、AI技術と脳の構造の関連について考えることがあります。 例えば、RAG技術が脳のどこの機能に相当するかなどを考えたりします。 最近、脳の構造について改めて考えた際、「脳はどこまでいっても謎の多い存在だな」と感じました。 脳を解剖して、切っても切ってもニューロンとシナプスの集合体であり、どこがどのように機能しているのかについては多くが謎に包まれています。 脳は、部分ごとに独立した意味を持つ

          LLMは脳の謎を解くカギとなるか?