見出し画像

BB workshop 事前質問への回答

先日は、ワークショップに参加していただきありがとうございました。僕自身、凄く楽しかったです。みなさんも何か持ち帰るものがあったらいいなと思っています。

何のこっちゃわからない人はこちらを。

一時帰国中に、BB Music Academy のみやこちゃんの助けで音楽制作のワークショップをしたんですね。このnoteは、そのワークショップ参加者の事前アンケートでもらっていたけど、ワークショップ中には答えられなかった質問への回答です。



Mix: (ボリュームバランス、エフェクト)

ワークショップ中に解説した通り、まず自分の頭の中でイメージした音に近づけていく作業になります。

  • 頭にたどり着きたい音がイメージできているか。

  • できている場合、どうやってそこへ辿り着くのか。

  • できていない場合、なぜできないのか。どうしたらできるのか。

曲によっても、曲のセクションによっても、歌詞によっても(同じメロディーであっても)、バランスの「正解」というものは変わってきますので、常に変化させていく必要があります。

ただ単に、ボリュームや周波数の「正しい」バランスを取るのであれば、AIを使うといいと思います。iZotopeのNectorなどはとても簡単に、そして素早く音を分析して「最適」な設定をしてくれます。

ただそれだと、「綺麗」にはなるし「正しい」バランスは取れますが、味もキャラクターも何もない、「自分の音」には程遠い音になってしまいます。

今活躍しているミキサーたちは、みんなそれぞれ「自分の音」を持っていて、プロデューサーやレーベルは、その「特徴的な音」を求めてそのミキサーに仕事を依頼します。それは、必ずしも「正しい」「綺麗な」音ではない場合も多く、高音が強いミックスだったり、ボーカルが大きかったり、低音を強調しまくっていたり。

なので、「正しい・正しくない」は置いておいて、一体自分の好きな、特徴的な音とは何なのかを突き詰めていくのが理想の形だと思います。

そのためには、イメージ→トライ→失敗→再トライ→イメージのやり直し→トライ…などなど、試行錯誤を繰り返しながらその「自分の音」を見つけていくしかありません。僕も、いまだに「自分の音」を探し続けているし、ちょっとしたきっかけで変わります。その変わっていくのも「自分の音」として捉えています。

練習方法としては、「正しい」音をまずは見つけて、そこから少しずつ崩していくのがいいのかな…と思います。正しい音が何なのかもよくわからないのですが、AIがした設定を分析してみて、アナライザーなどが表示している数値を見てみたりして頭の中のイメージとすり合わせていくといいのではないでしょうか。


シンセの音作りと、いつも割と自己流でmixしているので、エンジニアさんがどのように(どのような点に注意しながら)mixしているのか興味があります。

上の質問と答えは近くなりますが…

注意している点は、正しいミックスをするのではなく「サプライズ」だったり、聞いている人が「そう来たか!」と思うようなワクワクする変化を常につけていこうと気を遣っています。ボリュームの変化だったり、EQやエフェクトの変化だったり。なので、僕のmix作業の多くはオートメーションを書く作業です。答えはないので、例えばマスターフェーダーで一番のサビより二番のサビを1dBぐらい上げてみたり…大サビに入ったら逆に下げてみたり。Manny Marroquinの受け売りですが、最後のサビと最初のサビを聴き比べたら、違いが一目(聴)瞭然であるべき!なので、必ず同じ楽器でも、曲が流れていく中で色々な変化をつけています。

シンセの音作りに関しては、完全に「イメージ」があるかどうか、そしてそこに近づけていけるかどうかです。ただ、イメージを明確に持たずに、色々試してみるというのも好きなんですよね… そういう時には、画面上でクリックしてシンセのパラメータを変えるのは嫌いです。やはりハードウェアシンセや、コントロールサーフェスを使って、目や数字よりも、感覚と耳で欲しい音を探しに行っています。つまみを触るだけで、特に回さなくても音が変わったり。その辺は楽しい作業ですね。ミックスでのシンセの音作りの場合は、痩せすぎないように、厚みがあるように、そして広がりが上下左右前後ともに出るように…とイメージして、そこに音を近づけていっています。


Mixの考え方など

できるだけ、考えずに感覚でmixします。今まで考えて、培ってきた経験と技術を信じて、Instinctで音を変えていきます。今の時代のDAWは簡単に新しいバージョンと別名保存できるので、失敗したらいつでも戻れますしね。ちょっとでもやってみたいと思ったことがあれば、リスクを負ってでもやってみます。ここでも大事なのは、あくまでもイメージ先行。「これをしたらどうなるんだろう?」って考えながら先回りして音をイメージしておく… 必須です。


効率の良いワークフロー、各所でシンプルで正確な判断の仕方があれば。

作業の準備に、たっぷり時間をかけます。トラックの色分けをしたり、名前をわかりやすく付け直したり、グループでまとめたり、曲のセクションをマーカーでまとめたり。これをすることによって、ミックスしているときに、あまりクリエイティブではない作業で流れを断ち切られてしまったりすることもないですからね。あとは、自分のテンプレートを使ってやることです。使うリバーブやディレイなどエフェクトや、グループエフェクトなどを、読み込んだ状態でテンプレート保存してあります。そして、ミックスの準備作業として、そのテンプレートをインポートして作業の効率化を図っています。

各所での判断は、完全にInstinctです。よく「曲が欲しがってる音を作る」とか「曲が導くところに音の正解がある」なんて気取った言い方が雑誌に載っていたりしますが、完全に同意します。曲が流れている中で、どの方向に進んでいきたいのかを感じて、それをサポートする音作り。そのために、どんな変化球が来ても対応できるよう、自分の道具箱には色々なツール・テクニックを溜め込んでいく必要があるし、そこが一番大変な作業なのかな…と思います。


自分の中にある音をアウトプットするためのヒントが何か得られたら嬉しいです!

聴くことですかね… クリティカルリスニングすることで、誰かの中にあった音がアウトプットされた経緯や意図、方法がわかってきます。それを自分に当てはめていく感じですね。そこは試行錯誤の連続ですが、一番楽しい作業なのではないでしょうか。

僕個人は、音楽だけでなく、他の分野からインプットを得るのも好きです。映画や写真など、視覚で捉えるもの。陶芸や絵画、織物など。彫刻や本、スポーツなんかからも「イメージ」することを学び、音楽という形でアウトプットしています。



EQやコンプを使った、定位性の調整について。

僕の場合は、ほとんどがパラレルプロセスで調整しています。
例えば、各トラックから…

  • 深めにかかるコンプのバスに送る量を調整することでセンター・前を強調することができます。

  • ステレオの幅を広げつつ高域にフォーカスしているバスに送る量を調節することで「空」に音を置けます。

  • 深め・浅め・中ぐらいのリバーブやディレイバスのどれに送るかによって、音の前後やフォーカスを調整できます。

などなど…

それぞれのトラック内の音をビシッと締めてあげさえすれば、それぞれのパラレルバスに送った時に「本体」はフォーカスを失わず、「影分身」だけ置きたい場所に動いてくれます。

これも、イメージしてからの具現化です。



クライアントや、発注者とやり取りをする際に気を付けている事


前の質問への回答で触れたように、「自分の音」はこういう音だから、〇〇な結果が期待できるよ。ということをはっきり伝えます。

「ラフミックス聞いたよ!すごくナイスなプロダクションで、曲の流れとか盛り上がり、グルーブもいいね!ミックスするときは、今あるもうすでに素晴らしいものはあまり変えずにいくけど、低音のタイトさをより出して「根っこ」を安定させたらもっとどっしりするかなとは思う。あと、前後左右はもうちょっとアグレッシブに広げちゃってもいいかな。基本はいい音だから何かを「修正」するというよりは「すでにあるものを強調させる」作業になるよ。僕の音はPOP寄りだから、もう少しボーカルとビートにフォーカスした音作りにはなる。そして、中域の厚さが特徴だから、その辺は感じれるミックスになると思う。」みたいな感じです。

あと大事なことだけど、お金と締切の話は最初にします。

「僕の基本レートはいくら。これは、XX日までにデリバリーできる値段。急ぎだともうちょっと高くなるよ。でも、もし事前に決まってる予算があるんだったら相談に乗るから教えて。」などなど。

下手に勘ぐったり、隠したりせずに透明度高めで会話します。


YouTubeやサブスク投稿時は、ラウドネスノーマライゼーションが-14LUFSを超えると、かかると言われています。しかし、自分で自作曲(マスター済、-14Lufsで調整)を聴くと、Apple MusicやYouTubeにあるプロの音量に比べて聴覚状の音が小さく聞こえます。iTunes Storeでプロの曲を単品購入してラウドネス値を確認してみると、-10を超えてることもありました。私のようなプロでもない一個人がYouTubeやサブスクでの楽曲投稿を前提とした際、結局マスタリング時のラウドネス地に正解はあるのか?気になっています。


ホットなトピックですね~。

Spotifyが-14dB LUFSで一番大きくて、他はさらに小さいです。Streaming Platformは、基本的にはデフォルトでNormalizationがかかっている設定なので、大きい曲は小さく、小さな曲は大きく「平均化」されてストリームされます。

で、ここで大事なのは… Normalizationは外せるってことです。Apple MusicでもSpotifyでも、チェック一つで外せます。YouTubeは外せないかな… なので、チェックを外してストリームしたり、曲を買って聞いてみると、むやみやたらとデカかったり、思っていたよりも小さかったりということもあります。SoundCloudはそもそもNormalizationないですしね。

じゃ、何が正解なのか。僕の持論を書きます。

繰り返しになりますが、自分がイメージした作りたい音が一番映える音圧にすることです。
Jaycen Joshuaというヒップホップ・RnBをメインにミックスしている人がいるのですが、彼は「-14dBなんかあり得ん!」と言っています。彼の作る音楽の性質上、ダイナミクスは重要だけれでも、そこまで繊細な上げ下げがあるわけでもない。なので、最終的な音圧を第三者に調節してもらうことを期待せずに、自分が思う最高な状態で送り出しているんだと思います。

Loudness Warの時のように、マーケティングやビジネス理由であげれるだけ音圧を上げる…というのは意味がないですが、「決められたLUFS値があるから、今のままだと低音がパワーない気がするけどこれでいいや…」というのはちょっと違うのかなと思ってます。僕は一応-14dB LUFSは基準にしますが、そこからあげた方が音が良ければそうするし、下げた方が感情を揺さぶる音ができるのであれば、いくらでも下げます。

先日Twitterで、ミックスの段階で-14dB LUFSはいってる…って呟いたんですが、これは「自分が欲しい音」を追求していく中で自然とそれぐらいになった…ってことで、ミックス時に-14dBを狙っているわけではないです。

そこからリミッター・マキシマイザーで-8dBにしたかったらするし、したくなかったらしないし…



ということで、何か追加質問などはコメントで残してってください。
これからはnoteで音楽制作などに関しても記事を書いていこうと思っているのでFollowしてもらったら嬉しいです。

あと、事前質問以外でもワークショップ内で話したことで気になることなどもお知らせください。

BineuralとATMOS、さらにはAmbisonicsの話なども時間が足りなかったですしね…

あと、YouTubeでのライブ配信でのミックスチェックなどもやっていこうと思ってますので、そちらもご期待あれ。

🤙


この記事が気に入ったらサポートをしてみませんか?