見出し画像

AIと音楽の未来(第二部): 人工知能によって音楽制作はどうなるか

DJMagからの翻訳記事が大変ご好評をいただいたので、第2弾として2021年の「AIと音楽の未来」シリーズを要訳させていただきます。第一部の要訳はこちらになります。
(注意: 翻訳の正確さについては原文へのリンクを参照してください。また翻訳中のリンクは原文からのリンクをそのまま掲載しており、リンクの記事については本記事の翻訳の範囲を超えていますので、割愛します。)
※ 本記事はデクラン・マクグリン(DECLAN MCGLYNN)氏によって書かれ、2021年10月6日オンライン上で発表されました。

音楽制作とエンジニアリングに対するデジタル テクノロジーの影響を探る。

AI Futures シリーズのパート 1 では、AI を使用した「ディープフェイク」またはスタイル転送に関する差し迫った脅威と機会について説明した。 ベルリンを拠点に長年にわたって AI の最前線に深く関わってきたアーティスト、ホリー・ハーンドンに話を伺った。 また、ディープフェイクがどのようにしてサンプリング 2.0 時代の到来をもたらしているのかを調査し、過去の間違いが将来に向けてどのように修正される可能性があるのかについて調査した。 続きを読む前に、パート 1 を読むことをオススメする。

このセクションでは、スタジオにおける AI の影響について調査した結果を発表したい。 AI がすでに Logic Pro を含むいくつかの主要な DAW の一部となっているという事実にもかかわらず、音楽やアレンジメントについて提案してくれたり、歌詞を書くのを手伝ってくれたり、単に仕事をやってくれるだけの自律したコラボレーターという考えは、プロデューサーやソングライターにとって一般的に不安を伴うものである。Logic Pro では、この技術を使用して、演奏中にテンポマーカーを自動的に検出して作成することが出来る。 Google の Magenta Studio プロジェクトなどのサードパーティ プラグインは、機械学習を使用して、既存の MIDI ファイルとユーザーが設定した幾つかの基本パラメータに基づいて、アレンジメント内のコード、メロディー、ドラム パターン、さらには小節数を生成する。 市場には、Amper、Rhythmiq、Musico など、他にもたくさんの AI プラグインやツールがある。この 13 個のリストは、そういったプラグインを探索し始めるのに適しています。 この記事では、iZotope に焦点を当てます。

iZotope は世界有数のプラグイン メーカーの 1 つであり、そのツールは Skrillex (スクリレックス)から Trent Reznor (トレント・レズナー)、Just Blaze (ジャスト・ブレイズ) まで、あらゆるユーザーによって使用されている。 2014 年、彼らは、ユーザーが音楽をミックスするのに役立つ新しい ML アルゴリズム、つまり Facebook(訳注: 当時のフェイスブック、現在のMeta社) に思いがけない影響を与えた研究チームを始動した。

iZotope の最高技術責任者、ジョナサン ベイリー氏は次のように述べる。「Facebook は顔認識の元となる技術を解き始めており、私たちはそれらの技術をオーディオ・アプリケーションにどのように使用できるかに興味を持ちました。」 ベイリー氏は 2011 年から同社に勤務していますが、その当時は AI が「それほど魅力的でも話題でもなかった」時代である。 その結果として得られたテクノロジー、Neutron と呼ばれるプラグイン内の Track Assistant は ML に基づいており、基本的に入力を「聞き」、楽器を識別し、ミキシング手法に関する提案を行うのである。

「これはいくつかの面で私たちにとって本当に成功でした」とベイリー氏は言う。 「1 つは、これは素晴らしい技術的進歩でした。 これは、私たちが実際にマーケティングを主導した最初の例でした。 私たちはこの製品を機械学習によって強化されたものとしてブランド化して位置づけましたが、これはオーディオ・コミュニティのよりオタク的で技術的な側面を代表するコアな視聴者にとって非常に興味深いものでした。」

「私たちは活発な議論を行っています。完全な手動プロセスから完全に自動化されたプロセスまで、その範囲の適切な設定値はどこにあるのでしょうか?」 – ジョナサン・ベイリー

MusicTech 誌はこれを「ミキシングを行うソフトウェア」と呼び、このリリースにより、スタジオでの自動化、創造性、AI の役割を中心にすでに盛り上がっていた会話を加速することになった。 (LANDR や Cloudbounce のような自動マスタリング ツールは以前から存在していたが、DAW 内では動作せず、ユーザーが出力を制御できる範囲はかなり狭くなっている。)

「率直に言って、私たちは当初、これは音楽制作の経験が浅い人にとって便利な機能だと考えていました。 これはアシスタントであり、少なくとも出発点として、良いサウンドを得るのに役立つように設計されています。 完全な手動プロセスから完全に自動化されたプロセスまで、その範囲の適切な設定値はどこにあるのかについて、活発な議論が行われています。」

プロデューサーやエンジニアにとって、これはロボットが最初に想像されて以来広まってきた、決まり文句の「ロボットが私たちの仕事を奪う」というレトリックに最も近いものである。 しかし、それは正当な懸念と言えるか? ツールとコラボレーターの間の境界線が曖昧になり続ける中、私たちはベイリー氏に、iZotope がエンジニアやプロデューサー向けの AI と ML テクノロジーに関する業界リーダーとしての責任感を感じているかどうか、そしてそれが音楽制作の将来にどのような意味をもたらすのかを尋ねた。

「この質問はよく聞かれますが、私の伝統的な答えは次のとおりです。ミックスエンジニアとして、セッションを積み込み、最も汎用的なミックスを整え、自分自身の創造性や人間性を実際に適用することがなく、ただただそれをこなすことで生計を立てているとしましょう。申し訳ありませんが、あなたはテクノロジーに取って代わられることになります。 それ以上のスパイスを提供しない場合、あなたは純粋に技術的な問題を解決していることになり、テクノロジーがあなたに取って代わるでしょう。 しかし、実際にそのように働いている人は多くないと思います。」

週半ばのスタジオ時間が限られているため、週末を遠征に費やすツアー DJ にとって、スタジオ管理者の削減は天の恵みとなる可能性がある。

「録音を終えてセッションを開始したというような単純な問題でもです。 レベルはかなり良く、ミックス内に周波数の衝突はあまりなく、全体的にはすべてが良好に聞こえます。 それは創造的な仕事の終点ではなく、出発点であるべきです」とベイリーは主張します。 「私が知っているエンジニアの中には、仕事の芸術的な部分だけに集中できる世界に住むことを好まない人はあまりいません。」

ベイリー氏の責任は、これらのツールが創造性に及ぼす影響ではなく、業界全体に対するツールの悪用に関する倫理にある。 再び会話はディープフェイクの話になる。

「セッションを積み込み、最も一般的なミックスを整え、自分の創造性をまったく発揮しないことで生計を立てているのなら、残念ですが、あなたはテクノロジーに取って代わられることになります。」 - ジョナサン・ベイリー

「ディープラーニングの世界における研究の最先端は、主にコンテンツ合成に焦点を当てています」と彼は続ける。 「再作成やディープフェイクはその一例であり、これまで存在しなかったコンテンツを合成することができます。 方程式の両側で、非常に興味深い倫理的な問題がいくつか発生します。 私たちは倫理的な方法でモデルを作成するために人々のデータを使用していますか? それは私にとって本当に重要なことです。」

「逆に言えば、私たちのアルゴリズムのアプリケーションは倫理的な方法で使用されているのでしょうか? それを保証できるかどうかはわかりません」と彼は認める。 「もし誰かがiZotopeツールを使って、存在しなかったマイルス・デイヴィスのソロを作成したとしたら、それは倫理的でしょうか? それは世界にとって良いことなのでしょうか? よくわからない。 これは、私たちがこれらのツールの力を使って立ち向かわなければならない文明としての課題です。」

ディープフェイクは、今後数年間で AI と ML の音楽制作で何が可能になるかについて最も明白な文化的疑問符になるかもしれないが、クリエイティブな個人にとっては別の意味もある。 厳しい締め切りに追われている人、何時間もスタジオにこもって耳が疲れている人、週末ずっと外出していてリミックスを仕上げる必要がある人にとって、自信喪失が忍び寄る可能性があります。 技術的には、常に「正しい」か、あるいはそう教えられてきた限り「正しい」かは、最初の曲であろうと、キャリアを積んで20年経っても、多くのプロデューサーが感じている詐欺師症候群の考えを利用した、魅力的なクリエイティブな二分法を引き起こす可能性がある。 AI ツールからセカンドオピニオンを取得して、少なくとも正しい軌道に乗っていることを示すことは、魅力的な提案である。 結局のところ、アルゴリズムはすべてを「知っている」ので、何も処理されていない部屋で初心者レベルのスピーカーを使って作業していて、何十年にも及ぶようなエンジニアリング経験がない場合、AI の言葉を自分の言葉よりも優先したくなるような誘惑に駆られるのは当然であろう。 そして、100%の人間とコラボレーションするということは、アイデアを出し合い、お互いに刺激し合い、時には矛盾する音楽的影響をもたらすことであると同時に、自分のアートを世に出すという重荷を共有することでもある。 AI がより有能な協力者になれば、より概念的な質問が必要になる。 しかし今のところ、iZotope は純粋に問題解決に重点を置いている。

「ツールを設計するとき、私たちはそのようには考えません」とベイリー氏は言う。 「私たちの使命は、人々が創造的になるためのツールを提供することです。 オーディオ作成とオーディオ制作は、非常に進んだ高度な技術分野という立場から、破壊的テクノロジーの発明によって、技術的な領域ではなく、創造的な問題の領域に重点が置かれるようになりました。そして、より多くの人が創造的な問題を解くことに時間をかけることが出来るようになりました。

「2 つのオーディオ トラック間のオーディオ・マスキングは、特にクリエイティブな問題ではありません。 しかし、『ブリッジ中のミックスでベースとボーカルをより目立たせるべきか?』という問いは、クリエイティブな問題であり、最終的にはクリエイターがその決定を下すべきであり、その決定を下すのはツールを開発している私たちではありません。」

「AI のリスクの 1 つは、美しい曲を作る曲生成マシンが完成することですが、その曲を作るために使用したものを一切クレジットしないことです。」 - ヨタム・マン

それでは、今後数年間で、すべてのプラグインに何らかの AI 機能が搭載されることは避けられないのだろうか?

「プラグインの設計方法については、市場で少し意見が分かれています」とベイリー氏は説明します。 「アナログ なハードウェアのエミュレーションがあり、iZotope や FabFilter のような純粋なソフトウェア製品もあります。 私は両方のカテゴリーの企業がディープラーニングを使用していることを知っています。Univeral Audio のようなアナログ機器をエミュレートするだけの企業でさえ、ML はそれをより効果的に行うためのテクニックを提供します。 私の意見では、それはますます広がっていくでしょう。」

iZotope や UA のような企業が内部とユーザー エクスペリエンスの一部として AI の可能性を受け入れる一方で、他の企業はより極端なアプローチを採用し、AI と ML が現代の DAW にとって何を意味するのかを完全に再考し、 コンピュータを使って音楽がどのように作られるかについてのルールブックを書き換えている。

Never Before Heard Sounds (以下NBHS)は、ヨタム・マン(Yotam Mann) と クリス・ディーナー(Chris Deaner) によって 2020 年に設立された。 「AI の力を誇示するだけでなく、AI の力を実際のミュージシャンに提供して新しくて興味深い音楽を作ることには、大きなチャンスがあると感じました」とマン氏は言う。 NBHS は、ミュージシャンを第一に考え、ツールを第二に考えることで、スタジオやステージで AI とどのように対話するかを再考することを目指している。 「ミュージシャンとして、私たちは自動音楽作成テクノロジーには興味がありません。AI音楽制作が進んでいると思われる方向性の多くはこれが占めています。ミュージシャンを置き換えるのではなく、強化するツールを構築しようとしている人はほとんどいません。」

彼らは、Holly+ でホリー・ハーンドンとコラボレーションするだけでなく、YouTube 上のビデオから音声を再合成し、合唱団または弦楽四重奏曲に変換できる Web サイトを構築した。 ここで自分で試してみてください。 注目すべきことに、彼らは、入力オーディオをリアルタイムで別のサウンドのモデルに再合成できる、世界初のハードウェアのプロトタイプも構築しました。

「私たちがとっている角度は、それを魔法で包み込んで、自動魔法の AI クリーチャーがあなたの音楽の問題を解決してくれると言うことではありません」とマンは続ける。 「しかし、アルゴリズムはできるだけ誰にでも分かるように、そして役に立つように制作しています。 だからこそ、私たちはツールを『楽器』と呼んでいます。 これらは手に持って音楽を奏でるためのものであり、作品の上にある種の魔法のレイヤーを適用するものではありません。」

NBHS の共同創設者で、アメリカのバンド、プラス/マイナスの熟練したドラマーであるクリス・ディーナーは、次のように付け加えている。 「AI と ML。 私たち二人ともミュージシャンなので、この中の人間的な部分にとても興味があります。」

このシリーズのパート 1 で説明したように、モデリングの特に人間の部分には、独自の倫理的課題が伴うものである。

「AI のリスクの 1 つは、美しい曲を作る曲生成マシンが完成することですが、その曲を作るために使用したものをまったくクレジットしないことです」とマン氏は言う。 「ですから、私たちにとって、この作品に参加したミュージシャンを紹介することが非常に重要でした。 私たちはこれらの生成モデルを AI エンティティそのものとしてではなく、最終的なミュージシャンであるあなたとモデリングに関わるミュージシャンの間のパイプとして考えています。」

「機械が生産に対してこの驚くべきアプローチを思いついたわけではありません。 これは誰かが何十年にもわたって培ってきた工芸品であり、今では自分のオーディオでその工芸品を探索できるようになりました。」 – ヨタム・マン

モデリングは、新しいタイプの DAW (Digital Audio Workstation, デジタル・オーディオ・ワークステーション)、つまり AbletonLogic ProPro Tools のようなデジタル・オーディオ・ワークステーションに対する彼らのビジョンをさらに一歩進めるものである。 DAW は過去 20 年間、基本的な設計がほとんど変わっておらず、ほとんどのソフトウェアは中核となるリニア・アレンジメント・ページ、ミキサー・セクション、グリッド・ベースの MIDI エディターに重点を置いている。 GUI は異なり、それぞれに独自の USP (Unique Selling Point, 「売り」となる部分のこと) がありますが、1989 年の Atari で Cubasis を使用していたユーザーにとって、そのほとんどはまったく認識できないものではない。一般に消費者向けラップトップがより強力になり、クラウド コンピューティングで複雑なリモート処理が可能になるにつれ、完全な GUI を導入する時期が来たのだろうか。 AI と ML を中心にゼロから構築された DAW を再考したのだろうか?

「私たちはそれについて考えています」とディーナーは認めた。 「一歩下がってみると、この会社の使命は、AI と ML を使用して音楽制作全般の新しい形式を生み出すことです。 DAW を使用すると、モデリングだけでなく、さまざまなタイプの ML を参照できます。 私たちは現在それに取り組んでおり、初期段階にあります。」

現在、現代の DAW を支配しているグリッドは過去のものになるかもしれない。 「私たちはインターフェースを全面的に見直し、グリッドベースではなく、より『楽しい』方法でインターフェースを考えようとしています。 私たちは、まったく新しい方法であらゆるものと対話する方法を見つけようとしています。」

ML DAW の最もエキサイティングな側面の 1 つは、特定のプロデューサーのミキシング スタイルを自分のプロジェクトに転送できることであろう。

「本当に好きなスタイルのプロデューサーがいるとしたら、私たちは楽器やサウンドについて話しているのではなく、制作の全範囲について話しているはずです」とマンは説明する。 「制作に対する彼らのアプローチをキャプチャし、DAW 上で再作成できます。 それは、すべてのプラグインにあるすべてのノブやスライダーを微調整することを意味するかもしれませんし、プロデューサーの仕事の全てが詰まったような完全なエンド・ツー・エンドの DSP (Digital Signal Processing) プラグインである可能性もあります。」

「とはいえ、それは人間です」とディーナー氏はすぐに繰り返す。 「ただの『AI:ザ・プロデューサー』ではありません。」

「それは非常に重要な部分です」とマン氏も同意する。 「機械が生産に対してこの驚くべきアプローチを思いついたわけではありません。 実際、これは誰かが何十年にもわたって培ってきた技術であり、今では自分のオーディオでその技術を探索できるようになりました。」

AI 支援ミキシングやステム除去などの現在のツールから、本格的な機械学習 DAW に至るまで、プロデューサーやエンジニアを取り巻く環境は、ここ数十年で最大の変革を迎えようとしているかもしれない。

このシリーズのパート 3 では、DJ について、そして AI が私たちの音楽の選択と編成の方法にどのような影響を与えているか、そして避けられない AI によるDJ の台頭について見ていく。 また、高度にパーソナライズされた生成音楽ツールがどのように新しい音楽リスニングの形式になりつつあるのかについても探っていく。


この記事が気に入ったらサポートをしてみませんか?