a16mixx

a16mixxはAIと経営戦略の研究所です。AIの領域はディープラーニングに特化してい…

a16mixx

a16mixxはAIと経営戦略の研究所です。AIの領域はディープラーニングに特化しています。対象は専門家向けではありません。AI(ディープラーニング)・経営戦略に興味がある人、詳しく知りたい人、もしくは、それらが生み出すものに興味がある人を対象としています。

最近の記事

企画職向けDL論文解説:Transformerを使った強化学習:Decision Transformer: Reinforcement Learning via Sequence Modeling

企画職の為のディープラーニングの論文解説です。DLの概要理解を通してAIのビジネス活用企画を立案する事を目的としておりDL専門家視点では細かな間違いが含まれている可能性があります。 元論文はこちら 要点強化学習の時系列処理にTransformer(causal transformer)という2021年時点で流行りの高速高性能時系列処理パーツを使ったよ。そうする事で、長い時系列データに対しても良い結果が出たよ。 強化学習とは?コンピューターが自身で試行錯誤しながらゲームを

    • 企画職向けAI論文解説:画像の文字の指示による変換:StyleGAN-NADA: CLIP-Guided Domain Adaptation of Image Generators

      文系企画職の為のディープラーニングの論文解説です。DLの概要理解を通してAIのビジネス活用企画を立案する事を目的としておりDL専門家視点での細かな部分の説明は省略していたり、分かりやすく調整している場合があります。 元論文はこちら(2021年8月投稿の論文) 要点文字で指示を与える事で、画像を変換するよ。例えば、普通の車の写真をスポーツカーの写真に変えたり、顔の写真をスケッチ風などに変換したり、ディズニー風にしたり、どんな変換でも文字での指示のみで変換可能。この論文のポイン

      • BERTの日本語学習済みモデルの種類

        BERTモデル自体は自分で作る必要はない BERTモデルのプログラミング自体は、既にあるものを利用すればOKです。最も有名で確実なものは下記になります。 Googleがオフィシャルに公開しているもの(Tensorflow版のみ) https://github.com/google-research/bert huggingfaceが公開しているもの(こちらはTensorflowとPyTorch版両方ある) https://github.com/huggingface/tr

      企画職向けDL論文解説:Transformerを使った強化学習:Decision Transformer: Reinforcement Learning via Sequence Modeling

      • 企画職向けAI論文解説:画像の文字の指示による変換:StyleGAN-NADA: CLIP-Guided Domain Adaptation of Image Generators

      • BERTの日本語学習済みモデルの種類