最近の記事

AI生成小説が大賞を取りました。(プロンプトあり)

2022年8月22日、株式会社図書館総合研究所様主催のAI生成小説のコンテストに参加し、大賞をいただきました。ありがとうございました。 今回は実証プレイベントということでしたが、参加者は8名、審査員は3名という中、総合的な大賞をいただけたことは名誉なことです。 というわけで、今回はその時に実施したプロンプトについて記述します。 前回の復習も兼ねて、初めから丁寧に書いていきます。 1. Custom instructionsの設定Custom instructions(Ch

    • GPT-4(Custom instructions)で小説を書いてみる。

      X(旧:Twitter)でとても素晴らしいプロンプトを見つけたので参考に作ってみました。維嶋津様、ありがとうございます。 1. Custom instructionsの設定Custom instructionsで「ChatGPTに何を知ってもらいたいか」、「ChatGPTにどのように回答してもらいたか」設定します。 Custom instructionsはChatGPT Plusの機能です。 下記の画面は2023年8月17日現在のものです。 (事前情報)What wou

      • AIBunCho/japanese-novel-gpt-j-6bで小説を書いてみる。

        前回、rinnaの学習モデルをファインチューニングして失敗し、どうしたものかと途方に暮れていたところ、AIBunChoが小説向けのベースモデルをリリースしたとのうわさを聞き付けた。早速試してみる。 8月11日(これを書いている4日前)にリリースされただけあって、ほとんど文献がない。それでも、以下の2名の先人が早速書き起こしてくれた。これを頼りに進める。感謝。 1. 環境構築サイズが大きいモデルなので、文書生成中にメモリが枯渇してハングアップすることがある。今回はGoogl

        • rinna/japanese-gpt-neox-3.6bをファインチューニングして小説を書いてみる。

          ご無沙汰しております。 数年前に「gpt-2で太宰治っぽい文章を作ってみよう」という記事を書きました。 縁あって、今回社内のコンペで「AIで小説を生成しよう」という企画があり、久しぶりに筆を取った次第です。 GPT-3.5の台頭から目まぐるしく生成AIは進歩を続けていますが、ここらで自己ベンチマークを定める意味でも一度まとめてみることにしました。 結論から言うと、あまり芳しくない結果となりました。それを踏まえた上でご覧ください。 1. モデルの選定大規模言語モデル(Lar

        • AI生成小説が大賞を取りました。(プロンプトあり)

        • GPT-4(Custom instructions)で小説を書いてみる。

        • AIBunCho/japanese-novel-gpt-j-6bで小説を書いてみる。

        • rinna/japanese-gpt-neox-3.6bをファインチューニングして小説を書いてみる。

          【超初心者向け】ChatGPTでオリジナルキャラを作ろう!【入門編】

          こんばんは。数年ぶりの投稿です。 縁あって、AITuberのDiscodeチャンネルに参加したのだけれど、活発な意見が飛び交っててとても刺激的です。 そんな彼らのために何ができるか自分なりに考えた結果、超初心者向けの導入部分なら記事を書けるのでは?と思ったので書いてみます。 なお、この記事はプログラムを触ったことがない人、AIについて詳しくない人向けにできるだけお金をかけないような方法を書いています。 読んで「よくわからないよ」や「ここ違くね?」って意見があったらTwitte

          【超初心者向け】ChatGPTでオリジナルキャラを作ろう!【入門編】

          PMP(Project Management Professional)第6版に合格しました。

          皆様、本当に、本当にご無沙汰しております。 rikuです。ほぼ一年ぶりの更新となってしまいました。 この一年何をしていたかというと、ほぼ勉強ばかりしていました。 と書くと、なんだか崇高な感じがしますが、コロナ禍ということもあり、どこかに出かけるわけにもいかないので、資格取得のために奔走していました。 今回は、見出しにある通り、PMPの勉強方法について書きます。 これから受験を検討されている方、何度か不合格になり再チャレンジされる方に是非読んでいただきたいです。 なお、この記

          PMP(Project Management Professional)第6版に合格しました。

          gpt2-japaneseをファインチューニングして太宰治っぽい文を生成する。

          どうも。 技術文章を書くのは初めてなのでお手柔らかにお願いします。 GPT-2の日本語モデル「gpt2-japanese」で公開されているsmallモデルとファインチューニング用コードを使って、太宰治の「人間失格」をファインチューニングします。太宰ブシの文章が生成できたら成功です。 1.環境構築とにもかくにも環境を整えましょう。GPUを積んでいるマシンがあればそちらを使用しても構いません。私は持っていないのでGoogle Colabで作成しました。 (1)Google

          gpt2-japaneseをファインチューニングして太宰治っぽい文を生成する。

          はじめまして

          まさか自分がnoteを始めるとは思っていなかったけど、技術情報の備忘録としてここに書き溜めておきます。 Deep Learningで作った色々なものを公開する予定です。

          はじめまして