試し読み:『サウンドプロダクション入門 DAWの基礎と実践』 その3
2021年3月に刊行した『サウンドプロダクション入門 DAWの基礎と実践』。1章「基礎編 音を聴く」から、「生演奏と再生音楽」と「音楽とは、周波数の時間分布である」のパートをご紹介します。本書は、著者の横川理彦氏が美学校で行なっている講座「サウンドプロダクションゼミ」をもとにしたDAW入門書。DAWのみならず、音楽全般に興味がある方々に、ぜひご一読いただきたい一冊です。
※試し読みその1(「はじめに」と、1章「基礎編 音を聴く」から「音がわかる耳」のパート)はこちら。
※試し読みその2(1章「基礎編 音を聴く」から「フィールド録音の勧め」のパート)はこちら。
--------------------------------------
1-8 生演奏と再生音楽
ここでは、音楽の「生演奏」と、メディアから「再生される音」について改めて考えてみましょう。音楽の歴史をテクノロジーから概観することで、DAWで音楽を作ることの意味がはっきりしてきます。
音楽とテクノロジー
音楽の歴史は、テクノロジーの発達と密接に関係しています。世界の様々な民族音楽と、使われている楽器のあり方はとても面白く、中国で紀元前の戦国時代の遺跡から発掘された「編鐘(へんしょう)」と呼ばれる巨大な青銅の鐘のセットなどを見ると、文明が音楽の理論化と結びついていたことがよくわかります。他方、アフリカ熱帯雨林のバカ族の人たちの歌とパーカッションのアンサンブルを聴くと、高度に発達したリズムアンサンブルと、見事なポリフォニーのコーラスのあり方に感動します。
重要なのは、音楽はもともと限定された場所で、そこに暮らすコミュニティの人たちに共有されていた、ということです。
17世紀あたりからの西洋音楽の発達はピアノの発明に至り、楽器はいずれも大音量化していきます。サキソフォーン類は、1840年以降の発明品です。楽譜も進歩し、音楽は持ち運んで色々な場所で演奏できるものになっていきます。電気を使ったオルガンやオンドマルトノなどは20世紀の発明品で、ピアノや金管類に比べて音の小さなギターはピックアップとアンプを使った電気楽器となり、歌もマイクを通して増幅され、スピーカーから聴くようになりました。
再生音楽とは
さて、20世紀に入って、ラジオとレコードの出現は、根本的に音楽のあり方を変えてしまいます。それまで音楽は生で演奏されるもので、その場にいなければ体験できなかったのに対し、レコードやラジオは時間と空間を隔て、普段の生活では知ることのできなかった音の経験をもたらしたのです。これは同時に、音楽体験(サウンド)の上での大きな変化ももたらします。
まず、ラジオやレコードは、再生できる音量と音域に限界があったので、音量は一定の幅に狭まり、音は中域に集中しました。またマイクの使用により、歌や演奏はマイクを経たときに良い感じになるように、歌い方や演奏の仕方が変わります。それまでの歌手は、大きな通る声で歌うことが必要条件だったのですが、マイクを使うときには音量が一定でマイクに乗りやすい声が必要となり、同時に歌の良し悪しが全く変わってしまいました。エレキギターやシンセサイザーなどの電気楽器・電子楽器の発達も、音楽のあり方を随分変え、現在のイコライザーとコンプレッサーを基本とする録音のやり方が定着します。
生演奏がテーマとなるジャズのミュージシャンでも、1926年生まれのマイルス・デイヴィスの場合、若いときにデューク・エリントンやアート・テイタムの演奏をレコードを通じて学んだと自伝で語っています。1960年代半ばには、クラシックのグレン・グールドとロックのビートルズはコンサート活動から引退し、レコード作りに専念するようになります。生演奏を伝えるための手段だったはずのレコードの意味が逆転し、レコードは複製物ではなく、それ自体が録音芸術として一次的な作品となりました。また、この両者の録音物に示されるように、レコードはテープ編集やマルチトラック録音、様々なエフェクトを通して作られる、生演奏では再現不可能な創造物になりました。
この傾向は、様々なビートミュージックにおけるDJカルチャーや、最初から最後まで生楽器が存在しないテクノ、エレクトロニカといったジャンルではさらに顕著で、アーティストたちは一切生の楽器を演奏することのない音楽家です。
再生物のサウンドと耳の変化
レコードは、技術的な事情によりダイナミクスや音質、ステレオ定位などに限界があるのですが、オーディエンスがそれを美的水準と捉え、新しい音楽家たちもそこから育ってくるので、レコードの音を基準として音楽が考えられていきます。
レコードは小さな音と大きな音の変化幅が生の演奏に比べ圧縮されているため、コンサートホールにオーケストラを聴きに行くと、慣れないうちはオーケストラの音を小さく感じてしまいます。また、ロックドラムの音はコンプレッサーやEQなどで大きく加工されているため、ライブハウス程度の大きさの場所でもドラムはミキサーで音を作らないといけません。
レコードでは、生楽器の自然なバランスではなく、聴いて良い感じになるようにメイン楽器は大きく、ほかの楽器は適度のバランスを取るため、例えば音量の全く違うピアノとアコースティックギターが左右で同じボリュームで鳴るように演出されます。また、シンガーたちはレコードで聴こえるのと同じように生演奏できることがテクニックとなり、歌い方が変わりました。
近年のサウンドとDAW の可能性
DAWでの音楽制作が当たり前になったこの10年間で、音楽作品のサウンドはまた大きく変化しようとしています。当初は、1970~80年代のアナログ機材とアナログのマルチトラックテープレコーダーのサウンドを模倣しようとしていたのですが(Wavesの初期のプラグインエフェクトのサウンドに顕著です)、ハイファイなデジタルサウンドとプラグインの発達、そしてヘッドフォンやイヤフォン、パソコンやテレビのスピーカーなどの再生環境の変化に対応し、生録音とバーチャルな音源を同等になるべく耳の近くに置き、各音源が互いに邪魔しないように配置するやり方が随分増えてきました。
以前の音は、音源にスタジオの部屋やホールの残響音が含まれていたのが、最近の音は音源の近くで部屋鳴りをなるべく含まない形で収録され、あとで人工的に残響を加えている印象です。FabFilterのQ3やiZotopeのOzoneなどは、この傾向を代表するエフェクトです。この視点でビリー・アイリッシュやジェイムス・ブレイクを聴くと、サウンドの新しさが際立ちます。
この傾向はハリウッドの映画音楽にも顕著で、2007年の『There Will Be Blood』(P.T.アンダーソン監督)あたりから主流になったのではないかと思います。ちなみにこれとは反対に、挿入される音楽と映画の中の環境音が区別できない音量で置かれ、まるで映像つきのミュージックコンクレートのように感じられる『エレファント』(2003年、ガス・ヴァン・サント監督)のサウンドトラックは、映画音楽の音響のもう1つの可能性を示しています。
1-9 音楽とは、周波数の時間分布である
DAWで音楽を作るということは、時間の中に音を置いていくことです。音は様々な周波数の集まりなので、音楽は周波数が時間の中でどのように分布しているのか、ということだと考えられます。
スペクトログラム
1-7でスペクトラムアナライザーを取り上げました。これは実際には一定時間の中でのピーク値(もしくは平均値)をグラフにしたものです。横軸に時間を置き、縦軸に周波数、音の大きさを色の変化か白黒の濃淡で表わすと、スペクトログラムという2Dのグラフで音を視覚化することができます。
上の図は、iZotopeのRX8のメイン画面で、楽曲のWAVファイルを読み込み、スペクトログラムで表示しています。RX8は、このスペクトログラムを直接エディットして音を変化させることができ、視覚情報とサウンドを完全一致させてコントロールできます。
スペクトログラムを使った音楽作りは、コンピュータのソフトウェアとしてはU&I SoftwareのMetasynthが1999年と早くに販売開始、音源として利用する形ではiZotope Iris2やFL StudioのBeepmapがあります。
ではスペクトログラムを使えば、どんな音楽でも作れるのでしょうか? 原理的には可能なのですが、人が音楽と感じるものには、時間的な階層(ミリ秒単位の短い音、数秒の中くらいの長さの音、数分から数時間の長い音)があるので、シンプルに横軸に時間を置いても、音楽を設計していくことは難しいのです。この3種類の時間単位で、周波数がどう表われるかを見てみましょう。
音色と時間
下の図を見てください。Ableton LiveのOperatorを3つのトラックで鳴らし、それぞれC3、C4、G4の位置の音(Cはド、Gはソ)が同じ長さとなっています。最初は同時、2小節目は一拍置きに鳴っていて、前者は1つの音、後者はサイン波のアルペジオに聴こえます。
1つの楽器の音色は実はサイン波の集合体で、どのように倍音(元になる高さの周波数の整数倍・非整数倍の音)が加わるか、それがどのように時間変化するかが楽器の個性になっているのです。
次の例は、バスドラムの音色です。このバスドラは割と地味な音色なのですが、スペクトラムアナライザーで見ると、それでも立ち上がりの方は300Hzあたりにピークがあり、バスドラの後ろの方の音は、40Hzにピークのあるサイン波に近い音色になっていることがわかります。
波形で見ると、1/32拍(BPM120で62.5msec)の間にこのような周波数分布の変化が起きているわけです。
リズムと音の周期的変化
音が時間の中で周期的に変化すると、リズムが感じられます。リズムは、単位時間で計測されてBPM(Beats Per Minute:1分間に4分音符が何個あるか)で表わされます。機械と同期しない、人間の演奏はBPMが揺れます。アンサンブルで、この揺れを共有していると、同じタイム感を持った演奏者同士の「タイト」な演奏になり、ここがメンバー同士でまちまちだと「ルーズ」な感じになります。
日本の雅楽のように、BPMが遅い音楽もあるし、ハードコアテクノではBPMが200を越えるのも珍しくありません。BPM120の2小節のループがベースになっている楽曲を考えると、リズム周期の単位時間は4秒です。
西アフリカのパーカッションアンサンブルから、最近のトラップ(ヒップホップのサブジャンル)まで、リズムは基本低音・中音・高音の3つの組み合わせで表現されるので、リズムも周波数分布の周期的変化と考えることができます。
楽曲の時間構造
音楽の3要素はメロディ、ハーモニー、リズムとされ、近年ではこれに音色を加えて4要素とすることも増えてきました。この4つの要素を組み合わせて数分から数十分の構造を作るのが音楽で、ありとあらゆる方法が開発されてきたし、ジャンルごとに大まかな了解事項(ロックにはギターが使われることが多いなど)があります。
21世紀の音楽で、ジャンルを超えて共通目標となっているのは「良いサウンド」を作ろう、ということです。サウンドは、個々の音源の組み合わせでできている音響全体のことで、作品を通じてこれを良い感じでリスナーに伝えられるかどうかが問題の中心です。2021年現在ブームとなっているローファイヒップホップは、リスナーが安心して身を委ねられるサウンド(テンポが遅く、高い周波数が少ない)を作ろうとしており、まさに高域を削った周波数分布が焦点になっている音楽です。
メロディとハーモニーが五線譜の上でよくできていても、それがサウンドとして説得力を持てるかどうかが、現在の音楽作りのポイントであり、サウンドを周波数分布の観点から上手にデザインし、配置できるようになることが、DAWを使った音楽作りの目的なのです。
--------------------------------------
Amazonページはこちら。電子版もあります。
この記事が気に入ったらサポートをしてみませんか?