見出し画像

ソクラテスが音楽と人工知能ビジネスについて思うこと

こんばんは。本日は久しぶりに下記の雑誌を読みなおしたということで、ソクラテスが音楽と人工知能ビジネスについて思ったことを取り上げさせていただければと思います。

画像2

要点は

・人が”音楽を享受する”ということは”曲そのものを楽しむこと”と”曲のみならずそれを表現するアーティストの世界観・想いにまで共感すること”という2段階に分けられる。

・AIと音楽の関係性についてはビジネス上いくつかの段階に分けられ、今は作曲活動を代替するところまできている。

・今のAI作曲は、作曲プロセスを構成する要素に基づいて曲をアレンジしたり類似曲を創出できる一方で、複数の楽曲から新たな共通因子を抽出した作曲に基づいた楽曲提供や既存の曲にとらわれない新しい価値を創出する楽曲提供をするレベルにまでは至っていない。

AIが音楽に最も関与する最終形態としては、曲のみならず、人々が享受したいと思うような世界観や想いまで特定し、それらを具現化した楽曲を提供して人々に最適な届け方をする状態だと筆者は考えている。

以下補足させていただきます。

音楽ビジネスの考え方の前提

AIによる作曲と音楽の可能性、このテーマを考える際、ソクラテス的には”人はどのように音楽を享受するのか?”という問いに答えないといけないと考えております。

大きく2つの階層があると思っています。1つ目は音楽を単純な”音”として享受しているというレベルです。端的に言いますと、歌っているアーティストのファンではないけれども、曲としてただ聞いている状態です。言わずもがなもう一つの階層は、曲のみならずその曲を体現しているアーティストや彼ら/彼女らが持っている世界観・価値観に共感しているという状況です。要は楽曲を直接的に構成する音や歌詞を超えて、それらの背景にある世界観やそれを表現しているアーティストをも享受しているということです。よくAIが完全にアーティストを代替するという議論を聞きますが、AIが曲を作ること=アーティストを代替するではないことを最初の共通認識として持っていただいた上で、AIと音楽の可能性について考えていきたいと思います。

★今のAIの現状

以下、AIと音楽の関係性について、”クリエイター(アーティスト)”という観点から考えていきます。作曲からマネタイズまでのプロセスとAIの関係性を整理すると、大きく6つのフェーズに分けられると考えています。

画像1

レベル1アーティストが創作活動からプロモーション等の売出し活動まですべて自分で行うこと(いわゆる最も原始的な方法と考えていただいてかまいません、AI関与0状態です)

レベル2アーティストが創作活動に集中してそれ以外の活動は第3者にやってもらうこと(現在も続くJASRAC等による著作権管理、レーベル・プロダクション会社による支援、AI関与0状態です)

ここからAIが関与してくるレベルです。

レベル3:音楽活動のバリューチェーンは大きく”創作”と”マネタイズするための仕組み化”に大別できると思いますが、後者(マネタイズの仕組み化)がAIによって最適化されている状態。例としてはSpotifyのようにユーザーに合った曲が再生されるおすすめ機能や雰囲気に合った楽曲が提供されることです。

レベル4:”マネタイズするための仕組み化”の最適化がAIによってされているのに加えて、作詞作曲プロセスにおいてAIが関与している状態。作詞作曲プロセスも同様に、作詞作曲をするための手段が提供されていることとそもそも作詞作曲する”モノ”が提供されることに分けられますが、ここでは前者(作曲手段)がAIによって実現されていること。

レベル5:最後はこれまでの機能・価値に加えて作曲そのものがAIによって代替されることです。ここまでくるとアーティストの創作活動が形骸化することになり、彼ら/彼女らの価値は作曲することにあるのではなく、彼ら/彼女ら自身の価値、すなわち曲に付随する世界観・想いを表現することに意味が出てきます。

レベル6:筆者的には最終形態ですが、楽曲のみならず、世界観・想いをAIが最適化して生み出している状態です。言い方を変えますと、”人々が最も共感する世界観・価値観”が統計学的なデータから要素分解・要因抽出されて、AIによって”人々が享受したい音楽と世界観”が表現されていることです。ここまできますと、いよいよアーティストという一見創造性に富んだ職すら失われてしまうことを意味しています。

人工知能と音楽の関係性

現状の理解としては、今はレベル5までは実現できています。音楽の配分の最適化はSpotify等の機能を見れば一目瞭然ですし、作曲に関してはも最近のアプリは基本的に作曲の重要要素であるスケール(調)、コード(和音)、メロディ(旋律)、ジャンル、サウンドを基本的に指定すれば、勝手に作曲してくれたり、ベースとなる曲をアレンジしてくれたりします。

一方で、何が売れるメロディーなのか?何が人が”イケてる曲”と感じるのか?、というレベルまでは解明してくれない印象です。もちろん主観的にイケてるものを指定して、それとパターンが類似したものを作曲するということはできます。一方で、いくつか自分がイケてると思った曲を要素分解してそれらに共通した要因を見つけ出すことで作曲するレベルのソフトウェアやそもそもこれまでの既存の作曲の区分け(先ほど挙げさせていただいたスケール・コード等)に依拠しない作曲方法を突き詰めたソフトウェア(俗にいう機械学習)は現在ないです。現状の作曲ソフトウェアはカフェなどの○○な雰囲気を作ってくれる音楽、○○(曲名)に似た音楽といったものを作曲するという意味では価値提供していますが、現在のアーティストがやっている私たちの想像を超えた新たな創作による価値創造に匹敵する価値提供はできていないのが現状だと思います。

最後までお読みいただいた方、本日もありがとうございました!以下直近の音楽業界とAIに関する動向とサービスについてのリンクも合わせて貼らせていただきましたので、興味のある方は是非読んでみてください。皆さんのご意見・感想・質問お待ちしております!!







この記事が気に入ったらサポートをしてみませんか?