Masayuki Abe

最新の海外のAI事例を、ChatGPT、AI、Generative AI、GitHub…

Masayuki Abe

最新の海外のAI事例を、ChatGPT、AI、Generative AI、GitHub、Hugging Faceなどから実際に手を動かしてから紹介しています。記事作成の励みになりますので、フォロー頂ければ幸いです。

マガジン

  • 自作LLM

    LLMを自作してみたい人向けに、手を動かしてLLMを作成する記事を紹介していきます。

  • Google AI系記事

  • InfraGPTの構築記録

    InfraGPTを構築しています。Linux系を中心に、自然言語でLinuxサーバに関する主要操作をするウェブアプリの開発をしています。当面はLinuxサーバ系を中心にしており、Windows Server系も自然言語操作を目指しています。

最近の記事

OpenAIの最新モデル「GPT-4o mini」の考察

OpenAIから最新モデル「GPT-4o mini」がリリースされたとのことで、早速調べてみました。 「GPT-4o mini」のリリースメールによると、GPT-3.5 Tubroと比較して優れている面があるとのことです。 知能: GPT-4o miniはGPT-3.5 Turboよりもテキストの知能(MMLUで82%のスコアを達成し、GPT-3.5 Turboの69.8%に対して)やマルチモーダル推論において優れています。 価格: GPT-4o miniはGPT-3.

    • Youtubeストリーミング動画をYoloV10でリアルタイム物体認識する方法

      UltralyticsでYoloV10が使えるようになりましたので、Youtubeストリーミング動画をリアルタイムで物体認識するコードを紹介していきます。 Pythonライブラリをインストールします。 pip install opencv-python yt-dlp numpy ultralytics tempfile 次に、youtubeyolov10.pyという名前で以下内容をコピーします。 ※url=のところは分析したいyoutubeストリーミング動画を指定するこ

      • UltralyticsのYoloV10でリアルタイムで物体認識する

        UltralyticsでYoloV10が使えるようになりましたので、紹介していきます。 YoloV10で使えるモデルは、以下となります。 今回は、Yolov10-Sをダウンロードして使ってみます。 最初に、test.pyとして次のコードを張り付けてください。 import cv2import torchfrom ultralytics import YOLO# モデルの読み込みmodel = YOLO('yolov10s.pt') # ここに正しいモデルファイルを指

        • 無料のローカルLLMで自分だけのAIが作れるデスクトップ用GPT4Allの設定方法

          デスクトップ用GPT4Allは、フリーあるいは公に公開されている言語モデルをダウンロードしてきて、自身のパソコン環境でAI環境を整備することができます。 デスクトップ用GPT4Allを使用しますと、具体的には、次の画面のようなChatGPTみたいなインタフェースでやり取りをしたり、ファイルを読み込ませて、そのファイルの内容に対して対話ができます。 1.GPT4Allのインストール方法最初に、次のページにアクセスします。 上記ページ内で、Download for Wind

        OpenAIの最新モデル「GPT-4o mini」の考察

        マガジン

        • 自作LLM
          6本
        • Google AI系記事
          22本
        • InfraGPTの構築記録
          6本

        記事

          ChatGPTで挑戦!スパゲティで再現する世界の名画13選

          スパゲティで有名絵画をChatGPTで作成します。今回は作成したスパゲティ絵画を紹介していきます。 所感は、思ったより時間がかかったことです。なかなか思い通りのスパゲティ絵画になりませんでしたので、何度も再描画をしたりしました。たまには、こういう使い方をしてみるのも面白いものです。 また、著作権上の絡みだと考えられますが、ムンクの叫びはChatGPTではスパゲティで作成することは出来なかったです。

          ChatGPTで挑戦!スパゲティで再現する世界の名画13選

          NPUを使える日に備えてONNX Runtime拡張ライブラリでローカルLLMのPhi-3の動かし方

          ASUS Vivobook s15を買いましたが、pythonでLLMを動かすときにNPUをどうやって使用させるのかがわかりませんでした。 Microsoftが提供するONNX Runtimeの拡張ライブラリであるonnxruntime-genaiを使えば出来るみたいとのことですが、Arm64は開発中とのことでした。 今回は、いつかArm64版のONNX Runtimeの拡張ライブラリが出るであろうことに備えて、非ArmPCで、ONNX Runtimeの拡張ライブラリでp

          NPUを使える日に備えてONNX Runtime拡張ライブラリでローカルLLMのPhi-3の動かし方

          Live Portrait:ベース動画の表情を元に、別画像でも同じ表情を実現

          Hugging Faceを見ていたら、ベースの動画の表情を全く違う画像に表情を付けるHugging FaceのSpaceがありましたので紹介します。 実際に試してみたい人は、Hugging Face SpaceのLive Portraitで試してみるといいです。 Live Portraitを利用してみますと、次の動画のようなことができます。左側がベースとなる動画です。表情豊かに動きます。真ん中がフェルメールの真珠の耳飾りの少女の画像となります。ベース動画を元に、真珠の耳飾

          Live Portrait:ベース動画の表情を元に、別画像でも同じ表情を実現

          ゼロから始めるDify

          Difyは、オープンソースの大規模言語モデルの開発プラットフォームです。今回は、乗り遅れた感はありますが、ゼロから始める人向けにDifyのインストール方法から書いていきます。 今回の記事は、Difyのインストール、設定、チャットボットの作成となります。 今回は、Dockerをインストールしてあるところからスタートとなります。Dockerをインストールしていない人は、何とかDockerをインストールするところまで進めてください。 最初に、Difyをインストールしますので、

          ゼロから始めるDify

          ローカルLLMを動かすことができるOpen WebUIのインストール方法

          Open WebUIは、ChatGPTみたいなウェブ画面で、ローカルLLMをOllama経由で動かすことができるWebUIです。 GitHubのプロジェクトは、こちらになります。 GitHub - open-webui/open-webui: User-friendly WebUI for LLMs (Formerly Ollama WebUI) 上記のプロジェクトを実行すると、次のような画面でローカルLLMを使うことができます。 このOpen WebUIは、Olla

          ローカルLLMを動かすことができるOpen WebUIのインストール方法

          LLMのElyzaに仕事相談してみました

          Elyzaという日本語にフォーカスしたLLMが出たということで、今回使い勝手を試してみました。 Elyzaの使用は、LM Studioを利用しています。LM Studioが初めての人は、次の記事が参考になります。 今回の質問内容は次のようなことを聞いてみます。ちなみに、こちらの相談は、適当に考えたものであり、私自身の悩みではないです。 同僚とのコミュニケーションがうまくいかず困っています。 長時間労働が続き、疲れが取れません。 努力が評価されず、やる気が出ません。

          LLMのElyzaに仕事相談してみました

          AI搭載PCのCopilot+PCでLM Studio

          LM Studioに、ARM64用のLM Studioが登場していました。これは、AI搭載のCopilot+PCであるSnapdoragonで使えるということを意味しています。 真ん中に、Download LM Studio for Windows (ARM64)となっています。Beta版ということで最近リリースされたものだと考えられます。 早速、ダウンロードしてみます。 上記のページを開いたら、Download LM Studio for Windows (ARM64

          AI搭載PCのCopilot+PCでLM Studio

          Copilot+PCのASUSノートPCを使ってみた感想

          Copilot + PCのASUS Vivobookの紹介とうとうCopilot + PCのASUS Vivobook S 15が届きました。こんなにPC買うのにワクワクするのは小さい頃に初めてのパソコンを手に入れた時以来です。 今回は、ASUS Storeの方で10%引きクーポン提示されていましたので、ASUS Storeで購入しました。税込み224,820円でした。 ASUSのCopilot + PCは、7月中旬くらいになると他にもラインナップが出てくると思い悩み

          Copilot+PCのASUSノートPCを使ってみた感想

          Claude ArtifactsとOpenAIを比較してみる

          AnthorpicのClaudeにArtifactsという新機能が追加されました。 このArtifactsは、OpenAIのCode Interpreterのようなものとなります。 今回は、次のようなことをそれぞれ聞いてみます。 GPTについての説明をマインドマップで表示してください。 AnthoropicとOpenAIをPEST分析してテーブル形式で表示してください streamlitで何かアプリを作成してください OpenAIのChatGPT/Anthorop

          Claude ArtifactsとOpenAIを比較してみる

          AI好きなら気になるOpen Interpreterのアップデートを眺めてみる

          Open Interpreterがアップデートされていましたので、紹介します。 今回のOpen Interpreterのアップデートでは、3つです。 llama3-70Bがiオプション指定で手軽に使える ollama3、Llamafile、LM Studio、JanでローカルLLMを取り扱える ローカル画像を取り扱える Open-Interpreterとは何?という人は、下記の記事で雰囲気を味わって頂けたらと思います。 今回のOpen Interpreterのア

          AI好きなら気になるOpen Interpreterのアップデートを眺めてみる

          青空文庫で自作LLM体験(GoogleColab)

          今回は、Google Colabで青空文庫から自作LLMを作成していきます。 パソコンで作成したい人は、16GBのメモリ環境でしたが、パラメータを小さくして何とか出来ましたので、こちらを参考にしてください。 Google Colabを利用した理由としては、Google Colabでは、TPUのハイメモリが300GB以上使えるからです。 メモリを気にすることなく使えるというのは良いですね。 今回も、こちらのコードを参考に、Google Colab用にしています。 では

          青空文庫で自作LLM体験(GoogleColab)

          青空文庫から自作LLMを作ろう!

          青空文庫からLLMを作っている面白いプロジェクトを見つけましたので紹介していきます。 シンプルなコードで実行できるというのがうれしいところです。 今回は、上記プロジェクトで、自PC環境におけるメモリの制約によりパラメータを少し変えています。 では、下記を自PCで実行します。 git clone https://github.com/speed1313/jax-llm.gitcd jax-llmpip install -r requirements.lock インスト

          青空文庫から自作LLMを作ろう!