TOSHI STATS

2005年に消費者金融にて信用リスク管理システムを構築。2014年にAI start-up "TOSHI STATS"を設立。2020年、IT専門誌APAC CIOoutlookから「Cognitive Tech company top10」に選出される。

TOSHI STATS

2005年に消費者金融にて信用リスク管理システムを構築。2014年にAI start-up "TOSHI STATS"を設立。2020年、IT専門誌APAC CIOoutlookから「Cognitive Tech company top10」に選出される。

最近の記事

"AlphaGo"に敬意を表して、弊社ToshiStatsでもAI囲碁プロジェクトを立ち上げてみた!

OpenAI o1-preview以降、強化学習が良く話題に登るようになりました。少し振り返ると強化学習を世の中に知らしめたのは、Google DeepMindが2016年3月にリリースしたAlphaGoでした。もともと囲碁はコンピュータにとって、探索空間が巨大で難敵だったようです。アマチュアの高段位ぐらいが当時の限界だったのですが、強化学習とMCTSを組み合わせたAlphaGoは専門家の予想を上回る性能を誇り、世界トッププロを破った初めてのAI囲碁棋士となりました。そこで今

    • 2024年のノーベル物理学賞・化学賞をきっかけにAIの将来を考えてみた

      先週はびっくりしました。AIでよく知られている二人がそれぞれノーベル物理学賞・化学賞を受賞したからです。この2名をノーベル賞の候補に挙げていた方は私が知る限りいなかったと思います。きっと世界中が驚いたことでしょう。せっかくの機会ですので、それぞれ受賞された方についていろいろと考えて今後のAIを占ってみたいと思います。 1.ノーベル物理学賞 まず、受賞者のGeoffrey Hintonをご紹介しましょう。トロント大学の教授で、70年代からAIの研究をされていました。2018

      • 「Monte Carlo Tree Search」と「生成AI」の組み合わせは将来game changerになるかもしれません!

        Search技術の一つ「Monte Carlo Tree Search」は2016年3月に史上初めて囲碁のトッププロを破ったAlphaGoで一躍有名になりました。強化学習と組み合わせると精度がとても上がるので、私達の心強い味方になってくれます。でもなかなか簡単にはプログラムできないのかなとも思います。そこで10月3日にでたばかりのChatGPT canvas(1)を使って簡単なゲームで「Monte Carlo Tree Search」を実装できないか挑戦したいと思います。早速

        • OpenAI o1-previewを見ていると、 「強化学習が、AI開発の主役に躍り出るかも」と思いました!

          OpenAI 01 previewが新しい生成AIのパラダイムを拓いて3週間が経過しました。推論時の論理タスクの精度は素晴らしいものがあります。残念ながらそのメカニズムは公開されてませんが、関連する最先端の技術はどうなっているか知りたいですね。幸いなことにヒントになるリサーチペーパー(1)がUniversity of California, Berkeley・Google DeepMindから出ておりましたので、ここでご紹介し、01 previewのメカニズムを想像してみたい

        • "AlphaGo"に敬意を表して、弊社ToshiStatsでもAI囲碁プロジェクトを立ち上げてみた!

        • 2024年のノーベル物理学賞・化学賞をきっかけにAIの将来を考えてみた

        • 「Monte Carlo Tree Search」と「生成AI」の組み合わせは将来game changerになるかもしれません!

        • OpenAI o1-previewを見ていると、 「強化学習が、AI開発の主役に躍り出るかも」と思いました!

          噂通り、OpenAI o1-previewは凄い性能でした。 ここから今後の生成AI発展の新しいパラダイムが生まれました!

          先週、OpenAI o1(1)をご紹介しました。まだpreviewでありながら高い性能を誇り、以下のリーダーボード(2)が示すように、特に数学やコーディングでは圧倒的な性能という評価が多いと感じます。そこでOpenAI o1がGPT4oなど既存生成AIモデルと比べて何故精度が高いのか考えてみたいと思います。 1.Chain of Thoughtが鍵 今回のOpenAI o1モデルで主役を演じるのは"Chain of Thought"です。これは「中間的な推論の一連のステップ

          噂通り、OpenAI o1-previewは凄い性能でした。 ここから今後の生成AI発展の新しいパラダイムが生まれました!

          OpenAIから次世代の生成AI「o1-preview」 登場! AGIに一歩近づいたかも?!

          2024年9月12日、いろいろ噂されていたOpenAIの新生成AIモデル「o1 (オーワン)」がリリースされました。早速試してみましたのでここでご紹介します。 1.モデルの概要 新しい生成AIモデルですので、様々な特徴がありますが、ポイントは以下となります。 科学・コーディング・数学の推論に特化したモデル OpenAI o1とOpenAI o1-miniの2種類 現在はpreviewで、機能と性能は限定的 GPT4の後継モデルではない OpenAI o1はリミット

          OpenAIから次世代の生成AI「o1-preview」 登場! AGIに一歩近づいたかも?!

          Story of artificial Japan, 実在しない日本

          Generative AIの進化のスピードは凄まじく、今回もびっくりしました。先日Googleより出たAI、imagen-3を使って画像生成してみました。日本のものを出力しましたが、もう本物と見分けがつかなくなってます。全て合成された写真ではありますが、純粋に楽しんで頂けたら幸いです。 Notice: ToshiStats Co., Ltd. and I do not accept any responsibility or liability for loss or da

          Story of artificial Japan, 実在しない日本

          「AIが数学オリンピック銀メダル」の記事から次世代の生成AIを予測してみた

          生成AIは数学が苦手と言われています。簡単な小学生程度の算数でも間違えることがあります。そんな中、Google DeepMindから「AIが数学オリンピック銀メダル相当のスコアを記録」とのリリースがありました。本日はこの記事を基にして、将来の次世代の生成AIを予測してみたいと思います、それでは始めていきましょう。 1、どうやって数学の難問を解いたのか? 今回の成果は以下の通りです。 「私たちは、新しい強化学習ベースの形式的数学推論システムであるAlphaProofと、幾何問

          「AIが数学オリンピック銀メダル」の記事から次世代の生成AIを予測してみた

          小さくても高性能、しかも無料でダウンロード可能と三拍子揃った生成AI Gemma2-2Bを試してみた!

          本日はGoogle DeepMindから先日発表のあった小型の生成AIモデル"Gemma2-2B"(1)のご紹介と簡単なデモを実施したいと思います。Gemmaはオープンソースライブラリで、パラメータ数70Bと9Bの中型モデルは市場に既に出てますが、今回はさらに小型の2Bモデルがリリースされました。2Bとは思えないほどの性能とのことで、大変期待されています。早速見てみましょう。 1、素晴らしい基本性能 Gemmaモデルは小型なのに、以下の様に素晴らしい性能を誇ります。GPT3

          小さくても高性能、しかも無料でダウンロード可能と三拍子揃った生成AI Gemma2-2Bを試してみた!

          Google DeepMindによる新しいプロンプト・エンジニアリング手法 "Many-Shot In-Context Learning" って凄い!

          最近プロンプト・エンジニアリングを調査していて面白いリサーチペーパー"Many-Shot In-Context Learning"(1)を見つけましたので簡単にご紹介したいと思います。Google DeepMindによる本格的なものですが、私たちがプロンプトを書く際にも応用が効く、大変示唆に富む内容になってます。早速みてみましょう。 1.コンテクストをうまく使う 皆さんがChatGTPのような言語モデル・生成AIにプロンプトを書く際は、検索エンジンのように「日本の首都はどこ

          Google DeepMindによる新しいプロンプト・エンジニアリング手法 "Many-Shot In-Context Learning" って凄い!

          Googleより、新しいオープンソース生成AI "Gemma2"登場。 Llama3との競争がいよいよ始まりました!

          いよいよ、Googleより新型のオープンソース生成AI "gemma2"が登場しました(1)。既に予告はあったのですが、思ったより早く出てきました。以下のように27Bモデルはリーダーボードで12位と大型モデルに肉薄する大変優秀な成績を誇っています。テクニカルレポート(2)もありましたので、早速どんな進化があったのか見てみることにしましょう。 1. モデル・アーキテクチャ Gemma2 はおなじみの decoder-only transformer architectureを

          Googleより、新しいオープンソース生成AI "Gemma2"登場。 Llama3との競争がいよいよ始まりました!

          あなたは信じられますか? 「2027年に私たちの前にAGIが現れる」という予想が元OpenAIのリサーチャから公表されました!

          突然、びっくりするような予想が公表されました。元OpenAIのリサーチャーであるLeopold Aschenbrenner氏によるもので、人間の各分野の専門家の能力に匹敵するAGIが4年後の2027年に登場するというのです。にわかに信じがたい話ですが、早速彼の主張を見てみることにしましょう。 1.過去から現在、そして未来 未来を予想するには、まず過去から現在までどのように生成AIが発展してきたのかを知ることが重要です。ここで著者はOOMの考え方を導入しています。ざっくり言う

          あなたは信じられますか? 「2027年に私たちの前にAGIが現れる」という予想が元OpenAIのリサーチャから公表されました!

          Llama3-8Bは日本語データによるfine-tuningでも素晴らしい性能を出しました。 基本性能の高さが大きく貢献しているのでしょう。 日本語のタスクにも十分使える可能性がありそうです!

          前回はLlama3-70Bの性能の高さをご紹介しました。でも、Llama3には小型の8Bモデルも有り、以前からfine-tuningして自身のタスクに合わせて使ってみたいと思ってました。小型なのでコストも安く、演算速度も速いので、タスクが明確に決まっているならばこの8Bモデルもきっと選択肢に入ってくるでしょう。そこで今回は公開されているLivedoor-newsの日本語記事(3)をいくつかのジャンルに判別するタスク用に、Llama3-8Bモデルをfine-tuningし、その

          Llama3-8Bは日本語データによるfine-tuningでも素晴らしい性能を出しました。 基本性能の高さが大きく貢献しているのでしょう。 日本語のタスクにも十分使える可能性がありそうです!

          Llama3は噂通りの凄い性能だった。オープンソースなので、活躍できる場所も無限に拡がりそうで、とても楽しみです

          4月18日にMeta社より、新型LLM "Llama3"がリリースされました(1)。待望のオープンソースの新型モデルであり、またGPT-4並みの性能が期待できることから、海外のAIコミュニティの間では大変な話題となりました。 その性能をリーダーボードで確認しました(2)。今回リリースされたのはパラメータ数が70Bと8Bの2種。特に大きい方の700億パラメータ・モデルの性能は、確かにGPT-4、Claude3-OpusそしてGemini 1.5 Proといったpropriet

          Llama3は噂通りの凄い性能だった。オープンソースなので、活躍できる場所も無限に拡がりそうで、とても楽しみです

          新型生成AI "Claude3 Haiku"を試してみた。 速くて賢いのに低価格。 AI エージェントとして使いたい!

          3月14日に"Claude3 Haiku"(1)というClaude3 生成AIの中で最も軽量なモデルが公開され、webアプリやAPIで使えるようになりました。いつもは最も高性能なモデルに惹かれるのですが、今回は最も軽いモデルを取り上げてみたいと思います。最近AI Agentのような繰り返し計算を実行するアルゴリズムを使うことが増えてきました。GPT4のようなハイエンドモデルを使いたいのですが、とてもコストが嵩むので簡単には実行できません。そこで安くて性能が良いモデルを探してい

          新型生成AI "Claude3 Haiku"を試してみた。 速くて賢いのに低価格。 AI エージェントとして使いたい!

          新しいgenerative AI "Google Gemini 1.5 Pro" は予想通り凄かった!

          先月、Googleから新しいgenerative AI "Gemini 1.5 Pro" (1)が発表されたことをお伝えしました。そして今日ついにToshiStats株式会社に"Gemini 1.5 Pro"がやってきました。さっそくいろいろ実験してみたいと思います。 1.100万tokenの長いcontext windowは本当に使えるのか? Gemini 1.5 Proは100万tokenという今までのLLMでは考えられないぐらいの長いcontext windowを誇り

          新しいgenerative AI "Google Gemini 1.5 Pro" は予想通り凄かった!