見出し画像

aiきりたんがアカペラ練習素材として使える可能性 

アカペラ拡散屋と申します

かなり久しぶりですが、記事として残しときたいと思い書いてます。
今回、Youtubeチャンネルを開設にあたり、aiきりたんというボイスロイドを使ったハモネプっぽい音源ミックス動画をアップしている理由を話したいと思います。
(結構長い内容になっております
画像は公式HPから引用しています。
https://zunko.jp/con_illust.html)

動画見たことない方はリンクから興味あれば覗いてみてください。
良ければCH登録、いいね、コメント等して頂ければ泣いて喜びます。
https://www.youtube.com/channel/UCt9XtQef85owjXyt2PYHCig?view_as=subscriber

目次
1.AIきりたんとはなんなのか?
2.AIきりたを使う理由
3.こういう人に使ってほしい

1.AIきりたんとはなんなの?

これはネットを検索すればいっぱい出てきますので、軽くだけ。
AIきりたんとはNEUTRINOいうニューラルネットワークを用いて歌声合成できるものを活用して歌声を作れるツールです。
https://n3utrino.work

イメージは初音ミクの別声バージョンとかSiriやアレクサの歌専用バージョンみたいなイメージです。

要はこのツールを使うと、歌詞と音情報を与えて上げれば人っぽく自動で歌わせられますという認識でいいかと思います。
(人類の進歩はまじで凄い❗️)

ここできりたんの話しを詳しくしてしまうとボリュームがすごいことになるので何がすごいかだけ。

凄いのは調声をせずに無料で使えるからです。調声というのは機械から出される音を人の声みたいに調整することです。特殊なソフトを使って歌うタイミングだったりを上手く変えて人が歌うのに似せています。

しかし、このAIきりたんは調声をおこなわなくてもかなり人が歌ってるように聞こえます。これは機械に取り込むための音データベースに本当に人が歌った情報を取り込んでいるからだと思われますが、それでもかなりクオリティが高いです。
(僕は機械的声があまり好きではないので、初音ミクとかは最初聞いたとき聞けませんでしたが、きりたんはかなり聞きやすかったです)

そしてそれが無料で配布されているため、
楽譜データを作れれば誰でも歌わせることができるのも凄いところですね。

2.AIきりたん音源を使う理由
アカペラを個人で練習する時は楽譜データを使ってそのデータから再生される音を聞いて自分で歌って覚えるということをします。

ここで楽譜データの音源は多くが楽器の音です。(ピアノ音が多いと思います)
つまり、ピアノ等の楽器音を聞いて歌詞と照らし合わせながら歌います。

だけど、ここで一つ疑問が。
カラオケとかで歌う時って楽器音ではなくて人が歌ってる音源を聴いて覚えますよね?
(ピアノ音で歌を覚える人は少ないはず。)
ということは楽器じゃなくて、ヒトの声のほうが音楽経験などがない人にとっては耳に残りやすくて記憶しやすいんじゃないかと

ここで歌うときのイメージはこんな感じです
(カラオケで歌うまでをイメージ)
1.人の声音源を聴く
2.脳に音程、大きさ、音色、リズム、言葉情報がインプットされる
3.インプットした中から自分が思う情報を歌うという行為でアウトプットする

ここで大切なのは正しく音情報をインプットできるかと正しく歌う行為で音情報をアウトプットできるかなんですが、ここではインプットに着目してます。

このインプット情報で音楽経験がない人がつまずくのが音程だと思ってます。音程とはドレミのことでこれを正しくインプットするには音感が必要になってきます。

だけど、どの音がドレミかわからないけど、
歌える人っていっぱいいますよね。

ということは、音情報などをまとめてインプットしてて、その中でも音色に関する情報の割合が多いのではないかと。
(音色というのは音の3要素の一つで、
ギターやピアノ等の音の特色です。
細かいところは今回は省略で。)

要するに音色が音を覚えるのに重要ではないかということです。

なら自分が覚えやすい音色で覚えれば音程を取りやすいんじゃないかと。
では覚えやすい音色ってなんなのか?

カラオケが歌える人でもコーラスをすると全然歌えないとかは結構あります。
この原因の一つにピアノ音等の楽器音は楽器音をよく耳にしている人は覚えやすいけど、そうでない人は覚えにくいとすると、コーラス練習の元音源を一般の人が覚えやすい音色にすればいいのではないか?

では人にとって最も身近な音色は何か?

それは人の声だと思うんですよね。
カラオケで歌を覚える時も歌った人の声を聞いて覚えるので、同じことをコーラス音源でしたらやりやすいんじゃないか?

ということで人の声に近いAIきりたんが使えるんじゃないかと思ったわけです。

でもそれだったら自分で歌ったものを録音とかすれば良いんじゃないか?という声もあるかと思いますが、
これはめちゃくちゃめんどくさい。

理由は以下3つ
1、全パートを全部覚えないといけない
2、その音域が正しく歌わないといけない
(基準になるのでここが狂うと終わり)
3、歌える環境が必要
僕は大学時代アカペラをやっていたので、やってない人よりかは多少知識等ありますが、ここまでを自分でできる能力は残念ながらありません。

一方でAIきりたんを使うと全部解決できます
1、AIが歌うのでパートを覚えなくていい
2、機械なので音が正しい
3、パソコン上でできるので機材がいらない

これらのめちゃくちゃめんどくさいことを代わりにやってくれてクオリティも高く、覚えやすい人の声で歌ってくれるのなら、コーラス難しくてできなかった人たちももしかしたらできるのではないか?と思って試験的に色々動画をアップしています。 

3.こういう人に使ってほしい
かなり長くなりましたが最後にこういう人に使ってもらいたいということを話して終わりにします。

結論からいうとコーラスに苦戦して苦しんでいる人、コーラスに苦戦してやめてしまった人たちにぜひ聞いてもらいたいです。
僕の経験では耳に残りやすい音源で覚えているほうが歌うときに頭に音のイメージが出てきやすいので、自分の耳で自分の声が聞きやすくなるように思います。
これは歌うという行為でアウトプットする際に、脳にある音情報と照合するんですが、照合データがはっきりするのでアウトプットしやすくなるのかなと個人的に思っています。

この音源で練習したから必ず上手くなるとは限らないし、人によってきりたん音源が覚えにくい人もいると思います。

インプットしやすい音情報はその人が育った環境、音楽の種類、音楽を聴く頻度、歌う頻度で変わってきますので、個人個人にあったものはその人にしかわかりません。

ただ、選択肢の一つとしてこういう形もあると知っておいてもらえれば何かヒントになると思いますので、上手く活用してもらえればと思います。

長くなってしまいましたが、最後まで読んでいただきありがとうございました。

この記事が気に入ったらサポートをしてみませんか?