鈴木いっぺい (Ippei Suzuki)

アメリカ、カルフォルニア州、ロングビーチ市に長く住むITビジネスマンです。長くアメリカ…

鈴木いっぺい (Ippei Suzuki)

アメリカ、カルフォルニア州、ロングビーチ市に長く住むITビジネスマンです。長くアメリカのIT業界で作った人脈を通して、日本との橋渡しをする事がライフワークです。アメリカから日本に紹介した技術は多く、ジャンルはクラウド、データベース、セキュリティ、コンテナそしてAI 等!

最近の記事

OpenAI社の次世代AIモデル:Project Strawberry

概要OpenAIのProject Strawberryは、従来のAIモデルを超越し、先進的な推論能力と人間の感情に共鳴する能力を統合することを目指した革新的な取り組みです。2015年12月にElon MuskやSam Altmanを含む技術者たちによって設立されたOpenAIによって立ち上げられたこのプロジェクトは、人工汎用知能(AGI)の実現を目指してAIの限界を押し広げることを目標としています。このプロジェクトの目的は、複雑なタスクを自律的に実行し、詳細な研究を行うことが

    • AIにおけるデータ拡張技術 (Data Augmentation)

      概要人工知能(AI)におけるデータ拡張技術は、既存のデータセットから新しいデータを人工的に生成する技術を指し、これによりAIモデルの性能と堅牢性を向上させます。追加のデータ収集を必要とせずにトレーニングデータの多様性と量を増やすことで、データ拡張はモデルの一般化能力を向上させます。これは、画像認識、自然言語処理(NLP)、音声処理などのタスクにおいて、モデルが現実世界の入力を正確に理解し解釈するために多様なデータが不可欠であるため、非常に重要です。初期の方法は回転やスケーリン

      • STORM: スタンフォード大学が開発したAIツールは、強力なWikipedia生成エンジン

        STORM: スタンフォード大学開発のAI搭載ライティングアシスタント STORMとは?STORM(Stanford Open Research Manager)は、スタンフォード大学が開発した革新的なAIライティングツールです[1][2]。このオープンソースの研究プロジェクトは、知識タスクと人間の学習を向上させるためのAIシステムの可能性を探ることを目的としています[1]。STORMは、大規模な言語モデル(LLM)とインターネットベースのリサーチを活用し、任意のトピックに

        • Huang’s Lawについて(AI業界におけるMoore’s Lawムーアの法則)

          Huang's Lawとは何か?Huang's Lawは、NVIDIAのCEOであるJensen Huangが2018年に提唱したもので、次のような内容です。 Huang's Lawの定義と説明 Huang's Lawの定義 Huang's Lawは、NVIDIAの2018年のGPU Technology ConferenceでJensen Huangが導入した概念であり、「GPUの性能は2年ごとに2倍以上になる」と定義されました。 Moore's Lawとの比較 H

        OpenAI社の次世代AIモデル:Project Strawberry

          「AIエージェントとは?」 のブログ記事をPerplexityで書かせる(1分以内に完成!)

          Perplexityの話題が多く登場してます。AIを駆使したサーチエンジン、という位置付けでChatGPTと違う、とよく紹介されますが、確かにサーチエンジンとしての機能は優れている、と言えます。特にChatGPTと違ってかなり最近までのインターネット上のデータをトレーニングしてるので、ChatGPTの一つの欠点である、最新のデータを保有していない、という点を克服しています。 ただ単に、自然言語でサーチエンジンを利用できるサービス、という位置付けにしちゃうと、Perplexi

          「AIエージェントとは?」 のブログ記事をPerplexityで書かせる(1分以内に完成!)

          Apple Intelligenceは内部でどのように動いているのか、の考察

          元ネタ:https://medium.com/@ignacio.de.gregorio.noblejas/how-does-apple-intelligence-really-work-5f79b368c86d Apple Intelligenceはどのように機能するのか?ご存じの方も多いかと思いますが、Appleはついに製品向けのGenAI機能群を導入しました。その名もApple Intelligenceです。 この機能群には、Emojiメーカーや執筆・画像ツール、そし

          Apple Intelligenceは内部でどのように動いているのか、の考察

          DSPyの紹介: Signal Processing技術を採用したマシンラーニング向けPythonライブラリ→時系列データをサポート、RAG開発に有効

          Intro to DSPy: Simple Ideas To Improve Your RAG参照ネタ:https://pub.towardsai.net/intro-to-dspy-simple-ideas-to-improve-your-rag-eb76914c844d DSPyとは?DSPy (Differentiable Signal Processing in Python)は、信号処理技術と機械学習モデルを統合するために設計されたPythonライブラリです。ディ

          DSPyの紹介: Signal Processing技術を採用したマシンラーニング向けPythonライブラリ→時系列データをサポート、RAG開発に有効

          ナレッジグラフ: 技術的概要とアプリケーション

          ナレッジグラフとは何か?ナレッジグラフは、現実世界のエンティティ(オブジェクト、イベント、状況、概念)とそれらの間の関係のネットワークです。コンピュータが理解できる形で知識を表現するデータのグラフと考えることができます。この情報は、グラフデータベースに保存され、グラフとして視覚化されることが多いです。ナレッジグラフは次のようなグラフ構造を使用します: ノード: エンティティ(個人、場所、物体、アイデア)を表します。 エッジ: エンティティ間の接続または関連を表します。

          ナレッジグラフ: 技術的概要とアプリケーション

          Self-RAGについて

          Self-RAG: 自己反省による検索強化生成Self-RAGは、検索強化生成(RAG)モデルのパフォーマンスを向上させるための新しいアプローチであり、大規模言語モデル(LLM)が情報の検索時期と取得情報の関連性および品質を評価する能力を持つことを可能にします。この記事では、従来のRAGの限界、Self-RAGの内部動作、そのトレーニングプロセス、実用的な応用、および産業用LLMに革命をもたらす可能性について探ります。 従来のRAGの限界 RAGは外部知識でLLMを強化す

          Chameleon:Meta社の新しいマルチモーダルファウンデーションモデルについて

          Chameleon、Metaのミックスモーダルファウンデーションモデル元ネタ:https://generativeai.pub/chameleon-metas-mixed-modal-foundation-model-bfc259d11ac1 最近、Metaは新しいミックスモーダルファウンデーションモデルのファミリーを発表しました。従来のモデルは、各モダリティを別々にモデル化し、その後異なるエンコーダとデコーダを使用して結合していましたが、Chameleonファミリーのモデ

          Chameleon:Meta社の新しいマルチモーダルファウンデーションモデルについて

          LangChainブログ:マルチエージェントAIによる情報リサーチアプリを開発する事例

          元ネタ:https://blog.langchain.dev/how-to-build-the-ultimate-ai-automation-with-multi-agent-collaboration/ LangGraphを使用した自律的なリサーチアシスタントの構築方法:専門AIエージェントチームを活用してGPT Researcherの最初のリリースからわずか1年ですが、AIエージェントの構築、テスト、および展開方法は大幅に進化しました。これは現在のAIの進化の速度と性質

          LangChainブログ:マルチエージェントAIによる情報リサーチアプリを開発する事例

          Complexity-NetとAdaptive-RAGの技術でRAGの推論性能を大幅に最適化(大規模LLM+小規模LLM+RAGの混在環境への提言と手法)

          元文献: Enhancing Language AI: When to Use Small, Large or Retrieval-Augmented Models | by Anthony Alcaraz | Apr, 2024 | Medium 言語AIの強化:小規模、大規模、または検索拡張モデルを使用するタイミングAnthony Alcaraz LLM(Large Language Models)のようなGPT-4は、自然言語処理と生成能力の著しい進歩をもたらしまし

          Complexity-NetとAdaptive-RAGの技術でRAGの推論性能を大幅に最適化(大規模LLM+小規模LLM+RAGの混在環境への提言と手法)

          マルチエージェント型のブログ作成システムをCrewai と Ollama で作る

          Create a Blog Writer Multi-Agent System using Crewai and Ollama元記事:https://medium.com/the-ai-forum/create-a-blog-writer-multi-agent-system-using-crewai-and-ollama-f47654a5e1cd はじめにAIエージェントは、自律的にまたは最小限の支援でタスクを実行できるソフトウェアツールです。これらは人工知能を使用して意

          マルチエージェント型のブログ作成システムをCrewai と Ollama で作る

          AIマルチエージェントとは?アーキテクチャを人の体と比較

          元ネタ:https://medium.com/superstringtheory/anatomy-of-an-ai-multi-agent-e2cfedc3b050 AIマルチエージェントの構造役立つAIエージェントをどのように作成するか?このパートは3つのセクションに分かれています。まず、役立つAIマルチエージェントの構造を見ていきます。セクション3では、具体的な部分に使用するコンポーネントについて説明し、より実践的にします。 1. 人間 vs エージェントスマートなも

          AIマルチエージェントとは?アーキテクチャを人の体と比較

          GPT-4oに対抗しうるオープンソースでローカルのエッジサーバに実装できるLlama 3-V:おまけにGPT-4の1/100のサイズのモデルでトレーニングコストはたったの$500?!

          Llama 3-V: Matching GPT4-V with a 100x smaller model and 500 dollars元ネタ:https://aksh-garg.medium.com/llama-3v-building-an-open-source-gpt-4v-competitor-in-under-500-7dd8f1f6c9ee はじめに(オープンソースのLLMとしての)Llama3は大ヒットしており、性能面では多くの分野でGPT3.5を上回り、一部

          GPT-4oに対抗しうるオープンソースでローカルのエッジサーバに実装できるLlama 3-V:おまけにGPT-4の1/100のサイズのモデルでトレーニングコストはたったの$500?!

          AIエージェントのみでBPO (Business Process Outsourcing) 企業を作り上げる方法:Dify+Ollama+Llama3+Groqで顧客サポート窓口業務を完全自動化

          How I Built A Simple ‘BPO’ Company, All AI Employees (All Local)元記事:https://ai.plainenglish.io/how-i-built-a-simple-bpo-company-all-ai-employees-all-local-631e48fa908a Disrupting the BPO Industry: My Journey Building a Fully Automated Comp

          AIエージェントのみでBPO (Business Process Outsourcing) 企業を作り上げる方法:Dify+Ollama+Llama3+Groqで顧客サポート窓口業務を完全自動化