最近の記事
- 固定された記事
LLMとは、大規模な言語データから学習し、与えられた自然言語の入力に基づいて、その入力の文脈や背景を統計的に予測し、それを踏まえて意味のある自然言語の出力を生成するニューラルネットワークモデルであるが、その詳細な動作原理については、特に大規模なモデルにおいて、まだ完全には解明されていない部分が多く残されている。
以下のXのポストとnoteの記事にインスパイアされて、Claude-3-Opusと対話して、LLMとはというのを簡潔にまとめてみました。 とか では、「LLMとは、文字列を入れたら文字列が帰ってくる関数である」とかシンプルな説明等があったのですが、自分としては違和感があったので、Opusと対話してみました。 以下、Opusとの対話の転載です。 「LLMとは、文字列を入れたら文字列が返ってくる関数である」「LLMとは、「自然言語命令を受け取って自然言語を出力するプロセッ
- 固定された記事
マガジン
記事
mlx-community/Swallow-70b-instruct-v0.1-4bit をお試し: Gradio`ChatInterface`こと始め その8
Huggingfaceのmlx-communityに、Swallowのinstructモデルを(°ー°ぼぶ) @BOBtakumi さんがアップロードしてくれてました。さらに、mlx関連で下記の記事を投稿してくれています。 さて、さっそく以下のモデルを試してみました。 なおGradioのスクリプトですが、最近はChattemplateがちゃんと記述されていて、tokenizer.apply_chat_template でうまく入力形式が整います。 そこで、システムプロンプ