音の波形のプログラミング
ソフトウェアで音楽を演奏するもう一つの方法は、音の波形を直接作ることです。音符の場合は一小節(120BMPだと2秒)の間に、数バイトから数十バイトのデータ量で済みますが、音の波形の場合、CD音源の品質だと、時間の解像度が44.1kHz、空間(波の高さ)の解像度は16bit(=2バイト)ですので、一秒間に88,200バイトのデータ量になります。ステレオだとさらに倍です。音符とはケタ違いですね。
1980年代に発表されたフェアライトというシンセサイザーは、ライトペンでブラウン管のモニターに波形を描いて音色を作るといったシステムでした。あくまで音色を作るためであって、音楽の全体の波形を作ることは不可能です。1982年、日本で発売されたときは1,200万円だったそうです。
音の波形を作るプログラミングで最初にとりかかったのは、3次元の物理モデルと素材を入力して、どこかを叩いたり、空気を入れたり、擦ったりすることで、どう振動するかシミュレーションして音を鳴らすという壮大な試みでした。当時、振動解析という深い分野があることは知らず、結局は一枚の板で挫折しました。
次に試みたのは、グラニュラーシンセシスとよばれる音の作り方です。ご紹介した小さな音符のデータをシンセサイザーに送るのと似ています。たくさんの小さな波形データを準備しておいて、マウスやデータグローブで操作して、小さな波形を重ね合わせて不思議な音を作るツールをプログラミングしました。
さらに、心理学で言われている視覚効果や音響効果を、ある日本映画で取り入れよう、という話が出て、お手伝いさせていただきました。当時流行っていた1/fゆらぎというものです。自然界で計測される波形の多くで、パワー(スペクトル密度)が周波数(f)に反比例している、だから1/fは快適だと言われていました。音楽の多くは、もともと1/fに近いのですが、それを強制的に1/fにするという取り組みです。音楽家が作った映画音楽の音源をいただき、周波数(フーリエ)解析してパワーと周波数のグラフにして、1/fの傾きから外れているところをフィットするように移動し、逆フーリエ変換で音の波形に戻す、というわけです。聴いた感じはどう変わったのかあまりわかりませんでしたが、まあ面白い取り組みでした。
この記事が気に入ったらサポートをしてみませんか?