見出し画像

InferKit - AIによるテキスト生成が可能なWebサービス

AIによるテキスト生成が可能なWebサービス「InferKit」 を試してみました。

1. InferKit

InferKit」は、カスタムAIベースのテキスト生成用の「インターフェイス」と「API」を提供するWebサービスです。最先端のニューラルネットワークを使用して、渡されたテキストの次に来るテキストを生成します。特定コンテンツ用のカスタムテキストジェネレータを作成することもできます。

有料サービスですが、20,000文字まで無料で試用できます。

画像1

テキスト生成の例は、次のとおりです。

Input : While not normally known for his musical talent, Elon Musk is releasing a debut album

Completion : While not normally known for his musical talent, Elon Musk is releasing a debut album.
It's called "The Road to Re-Entry," and it features an astounding collection of songs... (continued)

【翻訳】
Input : 彼の音楽的才能は通常知られていないが、Elon Muskはデビューアルバムをリリースしている

Completion : 彼の音楽的才能は通常知られていないが、Elon Muskはデビューアルバムをリリースしている
それは「The Road to Re-Entry,」と呼ばれ、驚くべき曲のコレクションが特徴です...(続く)

2. 日本語のテキスト生成

日本語のテキスト生成を試してみました。

画像2

Input : むかし、むかし、あるところに、おじいさんとおばあさんがいました。おじいさんは山へ刈かりに、おばあさんは川へ洗濯に行きました。

Completion : むかし、むかし、あるところに、おじいさんとおばあさんがいました。おじいさんは山へ刈かりに、おばあさんは川へ洗濯に行きました。元、このプレビューがどれほどを一番あなたに、おばあさんとおばあさんが習ってることは出来ませんが、昔は生きてています。
しかし、できない。と思った、そういうことで、おばあさんが習ってることは出来ません。
この収録が元に送って、むかし、おばあさんは山へ刈かりに行きました。
おばあさんは川へ洗濯に行きました。
中、おばあさんは川へ洗濯に行きました。
中、おばあさんは川へ洗濯に行きました。
とりあえず、現実にお

3. 翻訳を経由した日本語のテキスト生成

日本語のテキストを英語に翻訳して、英語のテキスト生成を行い、それを日本語に翻訳してみました。

画像3

Input : むかし、むかし、あるところに、おじいさんとおばあさんがいました。おじいさんは山へ刈かりに、おばあさんは川へ洗濯に行きました。

Input :
 Once upon a time, once there was an old man and an old woman. The old man went to the mountains for cutting, and the old man went to the river for washing.

Completion : 
Once upon a time, once there was an old man and an old woman. The old man went to the mountains for cutting, and the old man went to the river for washing.
The old woman went to the spring for drinking, and the old woman went to the market for buying.
She never thought that the water she was drinking came from the river where the old man had washed. The old man died.
But the old woman went on living.
One day she came to the river.
"Water!" she

Completion : むかし、むかし、あるところに、おじいさんとおばあさんがいました。
おばあさんは酒を飲みに春に行き、おばあさんは買いに市場に行きました。
彼女が飲んでいる水が老人が洗った川から来たとは決して思っていませんでした。 その老人は亡くなりました。
しかし、おばあさんは生き続けました。
ある日彼女は川にやってきました。
彼女「水!」 

4. 設定可能なパラメータ

画像4

◎ Length to generate (デフォルト: 300)
生成する文字(Unicodeコードポイント)の最大数です。通常、技術的な理由により、文字数は設定数より少なくなります。ニューラルネットがテキストの終了に適切な場所と判断した場合も生成が停止します。

◎ Start at beginning (デフォルト: オフ)
オンにすると、プロンプトは常にドキュメントの先頭から始まると解釈されます(ニュース記事のタイトルなど)。

◎ Don't pause at end of text (デフォルト: オフ)
オンにすると、ニューラルネットがテキストを終了する必要があると判断した場所で生成が停止しません。これにより、(指定した文字数まで)テキストが生成されますが、高品質であるとは限りません。ニューラルネットワークは、テキストを終了する準備をして、テキストを継続する方法を見つけなければならない場合があります。

◎ Nucleus sampling top p (デフォルト: 0.9)
サンプリング時に、ありそうもないテキストを破棄する確率のしきい値です。 たとえば、0.9は各ステップで確率が最大で90%増加する最も可能性の高いトークンのみからサンプリングされることを意味します。0に近い値は、ニューラルネットが最も可能性が高いと考えるテキストのみを選択するため、変化が少なく繰り返しが多くなります。

◎ Sampling temperature (デフォルト: 1)
サンプリングのランダム性(創造性)を制御します。1より大きい値を指定すると、異常な(確率が低い)テキストがサンプリングされる可能性が高くなります。 これは、テキストをあまり意味のないものになる傾向があります。0と1の間の値を指定すると、ネットワークは通常よりも可能性が高いと思われるテキストを優先します。 これにより、繰り返しが発生する可能性があります。


この記事が気に入ったらサポートをしてみませんか?