見出し画像

OpenAI API ドキュメント 日本語訳|#1 GET STARTED 前編

OpenAI API ドキュメントの日本語訳をこちらでまとめます。文字量の多いドキュメントなので、セクションごとに記事を分割しています。

今回は「GET STARTED 」のセクションからIntroduction と Quickstart を抜粋した前編です。

基本 DeepLで翻訳して、気になるところだけ書き換えています(ほぼ気になるところがないのが、DeepLのすごいところ)。原文との突き合わせができるようにはじめに原文を入れてますので、間違いなど見つけられましたら、ぜひご指摘ください。ご指摘箇所は随時反映させていただきます。

原文のリンクが有効になってますので、それぞれ必要な場合は原文リンクの方を参照ください。


Introduction|はじめに

Overview|概要

The OpenAI API can be applied to virtually any task that involves understanding or generating natural language or code. We offer a spectrum of models with different levels of power suitable for different tasks, as well as the ability to fine-tune your own custom models. These models can be used for everything from content generation to semantic search and classification.

OpenAI APIは、自然言語やコードの理解・生成を伴う、ほぼ全てのタスクに適用することができます。様々なタスクに適した、様々なレベルのモデルを提供しており、また、独自のカスタムモデルを微調整することも可能です。これらのモデルは、コンテンツ生成からセマンティック検索や分類まで、あらゆる用途に使用できます。

Key concepts|キーコンセプト

We recommend completing our quickstart tutorial to get acquainted with key concepts through a hands-on, interactive example.

クイックスタートチュートリアルに進み、実践的でインタラクティブな例題を通してOpenAIの主要コンセプトを理解することをお勧めします。

Prompts and completions|プロンプトとコンプリート

The completions endpoint is at the center of our API. It provides a simple interface to our models that is extremely flexible and powerful. You input some text as a prompt, and the model will generate a text completion that attempts to match whatever context or pattern you gave it. For example, if you give the API the prompt, “Write a tagline for an ice cream shop”, it will return a completion like “We serve up smiles with every scoop!”

補完エンドポイントは、私たちのAPIの中核をなしています。これは非常に柔軟で強力なモデルへのシンプルなインタフェースを提供します。プロンプトとしてテキストを入力すると、モデルはあなたが与えた文脈や型にマッチしようとする補完テキストを生成します。例えば「アイスクリーム屋のキャッチコピーを書いてください」というプロンプトをAPIに与えると、"私たちは、すべてのスクープで笑顔を提供します" このような回答が返されるでしょう。

Designing your prompt is essentially how you “program” the model, usually by providing some instructions or a few examples. This is different from most other NLP services which are designed for a single task, such as sentiment classification or named entity recognition. Instead, the completions endpoint can be used for virtually any task including content or code generation, summarization, expansion, conversation, creative writing, style transfer, and more.

プロンプトをデザインすることは、基本的にモデルを「プログラミング」する方法であり、通常はいくつかの指示や例を提供することで行います。これは、感情分類や名前付きエンティティ認識など、単一のタスクのために設計された他の多くの自然言語処理サービスとは異なります。その代わり、補完エンドポイントはコンテンツやコードの生成、要約、展開、会話、創作、文体変換など、事実上あらゆるタスクに使用することができるのです。

Tokens|トークン

Our models understand and process text by breaking it down into tokens. Tokens can be words or just chunks of characters. For example, the word “hamburger” gets broken up into the tokens “ham”, “bur” and “ger”, while a short and common word like “pear” is a single token. Many tokens start with a whitespace, for example “ hello” and “ bye”.

私たちのモデルは、テキストをトークンに分解して理解し処理を行います。トークンには単語もあれば、単なる文字列もある。例えば、「hamburger - ハンバーガー」という単語は「ham-ハム」「bur-バー」「ger-ガー」というトークンに分解されますが、「pear-梨」のような短くて一般的な単語は一つのトークンとなります。多くのトークンは、例えば” hello”や” bye"のように、空白で始まります。

The number of tokens processed in a given API request depends on the length of both your inputs and outputs. As a rough rule of thumb, 1 token is approximately 4 characters or 0.75 words for English text. One limitation to keep in mind is that your text prompt and generated completion combined must be no more than the model's maximum context length (for most models this is 2048 tokens, or about 1500 words). Check out our tokenizer tool to learn more about how text translates to tokens.

あるAPIリクエストで処理されるトークンの数は、入力と出力の両方の長さに依存します。目安としては、1トークンが4文字程度、英文の場合は0.75ワード程度となります。注意すべき制限としては、プロンプトと補完候補を合わせても、モデルの最大文脈長(ほとんどのモデルでは2,048トークン、つまり約1,500ワード)以下でなければならないことです。テキストがどのようにトークンに変換されるかについては、トークナイザー ツールを参照してください。

Models|モデル

The API is powered by a set of models with different capabilities and price points. Our base GPT-3 models are called Davinci, Curie, Babbage and Ada. Our Codex series is a descendant of GPT-3 that’s been trained on both natural language and code. To learn more, visit our models documentation.

APIは、さまざまな機能と価格帯を持つモデル群によって提供されます。GPT-3の基本モデルは、Davinci、Curie、Babbage、Adaと呼ばれています。Codexシリーズは、自然言語とコードの両方で学習されたGPT-3の後継モデルです。詳しくは、モデルのドキュメントをご覧ください。

Next steps|ネクストステップ

  • Keep our usage policies in mind as you start building your application.

  • Explore our examples library for inspiration.

  • Jump into one of our guides to start building.

・アプリケーションの開発を始めるにあたり、私たちの利用規定を念頭に置いてください。
・サンプルライブラリでインスピレーションを得ましょう。
・ガイドを読んで開発を始めましょう。

Guides|ガイド

Text completion
Learn how to generate or edit text using our models

テキスト補完
モデルを使用してテキストを生成または編集する方法について説明します。

Code completion *Limited beta
Learn how to generate, edit, or explain code

コード補完機能 ※限定ベータ版
コードの生成、編集、説明の方法を学習します。

Image generation *Beta
Learn how to generate or edit images

画像生成 *ベータ版
画像の生成や編集を行うことができます。

Fine-tuning
Learn how to train a model for your use case

ファインチューニング
ユースケースに応じたモデルの学習方法を学びます。

Embeddings
Learn how to search, classify, and compare text

エンベッディング
テキストを検索、分類、比較する方法について学びます。

Quickstart|クイックスタート

OpenAI has trained cutting-edge language models that are very good at understanding and generating text. Our API provides access to these models and can be used to solve virtually any task that involves processing language.

OpenAIは、テキストの理解と生成に非常に優れた最先端の言語モデルを訓練しています。私たちのAPIは、これらのモデルへのアクセスを提供し、言語処理を伴うほぼすべてのタスクを解決するために使用することができます。

In this quickstart tutorial, you’ll build a simple sample application. Along the way, you’ll learn key concepts and techniques that are fundamental to using the API for any task, including:

  • Content generation

  • Summarization

  • Classification, categorization, and sentiment analysis

  • Data extraction

  • Translation

  • Many more!

このクイックスタートチュートリアルでは、簡単なサンプルアプリケーションを構築します。その過程で、APIをあらゆるタスクに使用するための基本的な主要コンセプトとテクニックを学ぶことができます。

・コンテンツ生成
・要約
・分類、カテゴライズ、感情分析
・データ抽出
・翻訳
・その他多数!

Introduction|はじめに

The completions endpoint is the core of our API and provides a simple interface that’s extremely flexible and powerful. You input some text as a prompt, and the API will return a text completion that attempts to match whatever instructions or context you gave it.

補完エンドポイントはAPIの中核であり、非常に柔軟で強力なシンプルインターフェースを提供します。プロンプトとしてテキストを入力すると、APIはあなたが与えた指示や文脈にマッチするような補完テキストを返します。

Prompt Write a tagline for an ice cream shop.

Completion We serve up smiles with every scoop!

プロンプト アイスクリーム屋のキャッチフレーズを作って↓補完テキスト 私たちは、すべてのスクープで笑顔を提供します

You can think of this as a very advanced autocomplete — the model processes your text prompt and tries to predict what’s most likely to come next.

これは非常に高度な自動補完と考えることができます。モデルはプロンプトのテキストを処理し、次に来る可能性の高いものを予測しようとします。

1. Start with an instruction|インストラクションから始める

Imagine you want to create a pet name generator. Coming up with names from scratch is hard!
First, you’ll need a prompt that makes it clear what you want. Let’s start with an instruction. Submit this prompt to generate your first completion.

ペットの名前ジェネレーターを作りたいと想像してください。ゼロから名前を考えるのは大変です!まず、あなたが欲しいものを明確にするプロンプトが必要です。それではインストラクションから始めてみましょう。このプロンプトを送信して、最初の補完テキストを作成しましょう。

‍Suggest one name for a horse. 

Not bad! Now, try making your instruction more specific. ‍

Suggest one name for a black horse. 

[ 馬の名前を1つ提案してください]
悪くありません。今度はもっと具体的にしてみましょう。
[黒い馬の名前を一つ提案してください]

As you can see, adding a simple adjective to our prompt changes the resulting completion. Designing your prompt is essentially how you “program” the model.

このように、プロンプトに簡単な形容詞を追加するだけで、出来上がるものが変わります。プロンプトをデザインすることは、すなわちモデルを「プログラミング」することなのです。

2. Add some examples|事例を追加する

Crafting good instructions is important for getting good results, but sometimes they aren’t enough. Let’s try making your instruction even more complex.

良い結果を得るためには、良い指示書を作ることが重要ですが、それだけでは不十分な場合もあります。さらに複雑な指示を出してみましょう。

Suggest three names for a horse that is a superhero.

This completion isn't quite what we want. These names are pretty generic, and it seems like the model didn't pick up on the horse part of our instruction. Let’s see if we can get it to come up with some more relevant suggestions.

[スーパーヒーローのような馬の名前を3つ提案してください]
この完成度は、私たちが望んでいるものとはちょっと違います。これらの名前はかなりありふれたもので、私たちの指示の中の馬の部分を理解していないようです。もっと適切な提案をさせることができるか見てみましょう。

In many cases, it’s helpful to both show and tell the model what you want. Adding examples to your prompt can help communicate patterns or nuances. Try submitting this prompt which includes a couple examples.

多くの場合、あなたが欲しい答えをモデルに見せたり、伝えたりすることが役に立ちます。プロンプトに例を追加することで、パターンやニュアンスを伝えることができます。いくつかの例を含むこのプロンプトを送信してみてください。

Suggest three names for an animal that is a superhero.
Animal: Cat
Names: Captain Sharpclaw, Agent Fluffball, The Incredible Feline
Animal: Dog
Names: Ruff the Protector, Wonder Canine, Sir Barks-a-Lot
Animal: Horse
Names:

Nice! Adding examples of the output we’d expect for a given input helped the model provide the types of names we were looking for.

[スーパーヒーローのような動物の名前を3つ提案してください。
動物:猫
名前:キャプテンシャープクロー、エージェントフラッフィー、インクレディブルフェイリンクス
動物:犬
名前:ラフ・ザ・プロテクター、ワンダー・イヌ、サー・バークス・ア・ロート
動物:馬
名前:                    ]


いい感じです。ある入力に対して期待される出力の例を追加することで、私たちが求めていた種類の名前をモデルが提供してくれるようになります。

3. Adjust your settings|設定を調整する

Prompt design isn’t the only tool you have at your disposal. You can also control completions by adjusting your settings. One of the most important settings is called temperature.

自由に使えるツールは、プロンプトデザインだけではありません。設定を調整することで、完成度をコントロールすることも可能です。最も重要な設定の1つは「温度」と呼ばれるものです。

You may have noticed that if you submitted the same prompt multiple times in the examples above, the model would always return identical or very similar completions. This is because your temperature was set to 0.
Try re-submitting the same prompt a few times with temperature set to 1.

これまでの例で同じプロンプトを複数回送信した場合、モデルは常に同一または非常に類似した完了を返すことにお気づきかもしれません。これは「温度が0に設定」されていたためです。
温度を 1 に設定して、同じプロンプトを数回再送信してみてください。

Suggest three names for an animal that is a superhero.

Animal: Cat
Names: Captain Sharpclaw, Agent Fluffball, The Incredible Feline
Animal: Dog
Names: Ruff the Protector, Wonder Canine, Sir Barks-a-Lot
Animal: Horse
Names:

See what happened? When temperature is above 0, submitting the same prompt results in different completions each time.

(こちらは実際に原文ページで温度調節を試しながらお読みいただくと理解しやすいです)
https://platform.openai.com/docs/quickstart/adjust-your-settings

何が起こったか見てみましょう。温度が0以上の場合、同じプロンプトを送信すると、毎回異なる補完が行われます。

Remember that the model predicts which text is most likely to follow the text preceding it. Temperature is a value between 0 and 1 that essentially lets you control how confident the model should be when making these predictions. Lowering temperature means it will take fewer risks, and completions will be more accurate and deterministic. Increasing temperature will result in more diverse completions.

このモデルは、どのテキストがその前のテキストに続く可能性が最も高いかを予測していることに留意してください。温度は0と1の間の値で、基本的にモデルがこれらの予測を行う際に、どの程度確信を持って行うべきかを制御することができます。温度を下げるとリスクが少なくなり、補完はより正確で決定的になります。温度を上げるとより多様な補完が行われます。


DEEP DIVE - Understanding tokens and probabilities|さらに深掘り - トークンと確率を理解する
Our models process text by breaking it down into smaller units called tokens. Tokens can be words, chunks of words, or single characters. Edit the text below to see how it gets tokenized.

私たちのモデルは、テキストをトークンと呼ばれる小さな単位に分解して処理します。トークンには、単語、単語の塊、1文字があります。以下のテキストを編集して、どのようにトークン化されるかを見てみましょう。

Common words like “cat” are a single token, while less common words are often broken down into multiple tokens. For example, “Butterscotch” translates to four tokens: “But”, “ters”, “cot”, and “ch”. Many tokens start with a whitespace, for example “ hello” and “ bye”.

(こちらも原文ページでも文章のトークン化が確認できますので、そちらを試しながらお読みいただくことをお勧めいたします)
https://platform.openai.com/docs/quickstart/adjust-your-settings

“猫"のような一般的な単語は1つのトークンですが、あまり一般的でない単語は複数のトークンに分割されることが多いです。例えば、"Butterscotch "は4つのトークンに変換されます。「But」「ters」「cot」「ch」です。多くのトークンは空白で始まり、例えば" hello "や" bye "などとなります。

Given some text, the model determines which token is most likely to come next. For example, the text “Horses are my favorite” is most likely to be followed with the token “ animal”.

あるテキストが与えられたとき、このモデルはどのトークンが次に来る可能性が高いかを判断します。例えば、”私のお気に入りは馬"というテキストは、"動物"というトークンの後に来る可能性が最も高いです。

This is where temperature comes into play. If you submit this prompt 4 times with temperature set to 0, the model will always return “ animal” next because it has the highest probability. If you increase the temperature, it will take more risks and consider tokens with lower probabilities.

ここで、温度が重要になります。温度が 0 に設定された状態でこのプロンプトを 4 回送信すると、モデルは常に次に「animal」を返します。温度を上げると、よりリスクを取りより低い確率のトークンを考慮するようになります。

It’s usually best to set a low temperature for tasks where the desired output is well-defined. Higher temperature may be useful for tasks where variety or creativity are desired, or if you'd like to generate a few variations for your end users or human experts to choose from.

通常、目的の出力が明確に定義されている作業では、低い温度を設定するのが最適です。多様性や創造性が求められる作業や、エンドユーザーや人間の専門家が選択できるようにいくつかのバリエーションを生成したい場合は、温度を高く設定することが有効です。


For your pet name generator, you probably want to be able to generate a lot of name ideas. A moderate temperature of 0.6 should work well.

ペットの名前ジェネレーターは、たくさんの名前のアイデアを生み出せるようにしたいものです。0.6という適度な温度に設定するとうまく機能するはずです。

4. Build your application|アプリケーションの構築

Now that you’ve found a good prompt and settings, you’re ready to build your pet name generator! We’ve written some code to get you started — follow the instructions below to download the code and run the app.

良いプロンプトと設定が見つかったら、ペットの名前ジェネレータを作成する準備ができました。以下の手順に従って、コードをダウンロードし、アプリを実行してください。

NODE.JS の場合と PYTHON (FLASK)の場合で解説が異なる箇所は、それぞれは記載しております。

Setup - NODE.JS|セットアップ

If you don’t have Node.js installed, install it from here. Then download the code by cloning this repository.

git clone https://github.com/openai/openai-quickstart-node.git

If you prefer not to use git, you can alternatively download the code using this zip file.

Node.jsがインストールされていない場合は、ここからインストールしてください。その後、このリポジトリをクローンしてコードをダウンロードします。
gitを使用しない場合は、このZIPファイルを使用してコードをダウンロードすることができます。

Setup - PYTHON (FLASK)|セットアップ

If you don’t have Python installed, install it from here. Then download the code by cloning this repository.

git clone https://github.com/openai/openai-quickstart-python.git

If you prefer not to use git, you can alternatively download the code using this zip file.

Pythonがインストールされていない場合は、ここからインストールしてください。その後、このリポジトリをクローンしてコードをダウンロードします。
gitを使用しない場合は、このZIPファイルを使用してコードをダウンロードすることができます。

Add your API key|APIキーの追加

To get the app working, you’ll need an API key. You can get one by signing up for an account and returning to this page.

アプリを動作させるためには、APIキーが必要です。アカウント登録後、このページに戻ると、APIキーを取得することができます。

Run the app - NODE.JS|アプリの実行

Run the following commands in the project directory to install the dependencies and run the app.

npm install
npm run dev

Open http://localhost:3000 in your browser and you should see the pet name generator!

プロジェクトディレクトリで以下のコマンドを実行し、依存関係をインストールし、アプリを実行します。

(コマンドは原文を参照↑)

ブラウザで http://localhost:3000 を開くと、ペットの名前ジェネレーターが表示されるはずです!

Run the app - PYTHON (FLASK)|アプリの実行

Run the following commands in the project directory to install the dependencies and run the app. When running the commands, you may need to type python3/pip3 instead of python/pip depending on your setup.

python -m venv venv
. venv/bin/activate
pip install -r requirements.txt
flask run

Open http://localhost:5000 in your browser and you should see the pet name generator!

プロジェクトディレクトリで以下のコマンドを実行し、依存関係をインストールし、アプリを実行します。コマンドを実行する際、設定によっては python/pip の代わりに python3/pip3 と入力する必要があります。

(コマンドは原文を参照↑)

ブラウザで http://localhost:5000 を開くと、ペットネームジェネレータが表示されるはずです!

Understand the code - NODE.JS|コードを理解する

Open up generate.js in the openai-quickstart-node/pages/api folder. At the bottom, you’ll see the function that generates the prompt that we were using above. Since users will be entering the type of animal their pet is, it dynamically swaps out the part of the prompt that specifies the animal.

openai-quickstart-node/pages/api フォルダにある generate.js を開いてみてください。一番下に、上記で使用したプロンプトを生成する関数が表示されます。ユーザーはペットの動物の種類を入力するので、プロンプトの動物を指定する部分を動的に置き換えます。

function generatePrompt(animal) {
  const capitalizedAnimal = animal[0].toUpperCase() + animal.slice(1).toLowerCase();
  return `Suggest three names for an animal that is a superhero.

Animal: Cat
Names: Captain Sharpclaw, Agent Fluffball, The Incredible Feline
Animal: Dog
Names: Ruff the Protector, Wonder Canine, Sir Barks-a-Lot
Animal: ${capitalizedAnimal}
Names:`;
}

On line 9 in generate.js, you’ll see the code that sends the actual API request. As mentioned above, it uses the completions endpoint with a temperature of 0.6.

generate.jsの9行目には、実際のAPIリクエストを送信するコードが記載されています。前述の通り、温度0.6のcompletionsエンドポイントを使用しています。

const completion = await openai.createCompletion({
  model: "text-davinci-003",
  prompt: generatePrompt(req.body.animal),
  temperature: 0.6,
});

And that’s it! You should now have a full understanding of how your (superhero) pet name generator uses the OpenAI API!

以上です。これで、あなたの(スーパーヒーロー)ペット名ジェネレータが、OpenAI APIをどのように使っているか、完全に理解できたはずです!

Understand the code - PYTHON (FLASK)|コードを理解する

Open up app.py in the openai-quickstart-python folder. At the bottom, you’ll see the function that generates the prompt that we were using above. Since users will be entering the type of animal their pet is, it dynamically swaps out the part of the prompt that specifies the animal.

openai-quickstart-pythonフォルダの中のapp.pyを開いてみてください。一番下に、上で使用したプロンプトを生成する関数があります。ユーザーはペットの動物の種類を入力するので、プロンプトの動物を指定する部分を動的に置き換えます。

def generate_prompt(animal):
    return """Suggest three names for an animal that is a superhero.

Animal: Cat
Names: Captain Sharpclaw, Agent Fluffball, The Incredible Feline
Animal: Dog
Names: Ruff the Protector, Wonder Canine, Sir Barks-a-Lot
Animal: {}
Names:""".format(animal.capitalize())

On line 14 in app.py, you’ll see the code that sends the actual API request. As mentioned above, it uses the completions endpoint with a temperature of 0.6.

app.pyの14行目には、実際のAPIリクエストを送信するコードが記載されています。前述の通り、温度0.6のcompletionsエンドポイントを使用しています。

response = openai.Completion.create(
  model="text-davinci-003",
  prompt=generate_prompt(animal),
  temperature=0.6
)

And that’s it! You should now have a full understanding of how your (superhero) pet name generator uses the OpenAI API!

以上です。これで、あなたの(スーパーヒーロー)ペット名ジェネレータが、OpenAI APIをどのように使っているか、完全に理解できたはずです!

Closing|さいごに

These concepts and techniques will go a long way in helping you build your own application. That said, this simple example demonstrates just a sliver of what’s possible! The completions endpoint is flexible enough to solve virtually any language processing task, including content generation, summarization, semantic search, topic tagging, sentiment analysis, and so much more.

これらのコンセプトとテクニックは、あなた自身のアプリケーションを構築する上で大いに役立つことでしょう。とはいえ、この簡単な例では、何ができるかのほんの一端を示したに過ぎません。補完エンドポイントは、コンテンツ生成、要約、セマンティック検索、トピックタグ付け、センチメント分析など、事実上あらゆる言語処理タスクを解決するのに十分な柔軟性を備えています。

One limitation to keep in mind is that, for most models, a single API request can only process up to 2,048 tokens (roughly 1,500 words) between your prompt and completion.

ただし、1つのAPIリクエストで処理できるのは、プロンプトから補完までの間にある2,048トークン(約1,500ワード)までという制限があります。


DEEP DIVE - Models and pricing|さらに深掘り - モデルと価格

We offer a spectrum of models with different capabilities and price points. In this tutorial, we used text-davinci-003, our most capable natural language model. We recommend using this model while experimenting since it will yield the best results. Once you’ve got things working, you can see if the other models can produce the same results with lower latency and costs.

弊社では、様々な機能と価格帯のモデルを提供しています。このチュートリアルでは、最も高性能な自然言語モデルであるtext-davinci-003を使用しています。このモデルが一番良い結果が得られるので、このモデルを使いながら実験することをお勧めします。一旦、動作が確認できたら、他のモデルがより低いレイテンシとコストで同じ結果を出せるかどうかを確認することができます。

The total number of tokens processed in a single request (both prompt and completion) can’t exceed the model's maximum context length. For most models, this is 2,048 tokens or about 1,500 words. As a rough rule of thumb, 1 token is approximately 4 characters or 0.75 words for English text.

1回のリクエストで処理されるトークンの合計数(プロンプトと補完の両方)は、モデルの最大コンテキスト長を超えることはできません。ほとんどのモデルで、これは2,048トークンまたは約1,500ワードです。大まかな目安として、1トークンは約4文字、英文の場合は0.75ワードです。

Pricing is pay-as-you-go per 1,000 tokens, with $18 in free credit that can be used during your first 3 months. Learn more.

価格は1,000トークンごとの従量課金制で、最初の3ヶ月間は18ドルの無料クレジットを利用できます。詳しくはこちら。


For more advanced tasks, you might find yourself wishing you could provide more examples or context than you can fit in a single prompt. The fine-tuning API is a great option for more advanced tasks like this. Fine-tuning allows you to provide hundreds or even thousands of examples to customize a model for your specific use case.

より高度なタスクでは、1 つのプロンプトに収まりきらないほどの例やコンテキストを提供したいと思うかもしれません。微調整APIは、このような高度なタスクのための素晴らしいオプションです。微調整により、何百、何千もの例を提供し、特定のユースケースに合わせてモデルをカスタマイズすることができます。

Next steps|ネクストステップ

To get inspired and learn more about designing prompts for different tasks:

さまざまなタスクに対応するプロンプトのデザインについて、インスピレーションを得たり、より詳しく知るために。

・テキスト補完のガイドを読む
・サンプルプロンプトのライブラリーを見る
・プレイグラウンドで実験を始める
・私たちの利用規約を念頭に置いて、開発を開始してください。


今回は「GET STARTED 」のセクションからIntroduction と Quickstart を抜粋した前編をご紹介しました。

ここまで読んでいただきありがとうございます。
間違いなど見つけられましたら、ぜひご指摘ください。ご指摘箇所は随時反映させていただきます。

この記事が気に入ったらサポートをしてみませんか?