アナログ化するデジタル

「あの人はアナログな人間だから」

日常会話でたまに耳にするこんな発言。大抵悪口である。

I T革命以降、世界はデジタル化し大きな変貌を遂げた。アナログは古い、旧来の考え方で、デジタルは最先端の考え方、技術。そんな考えが当然のように広まっていった。

でも私はその考えは間違っていると思う。究極のデジタルがアナログである。アナログがデジタルの最終到達点である。そして世界は実際そのように向かっている。そんな持論をダラダラと語りたい。

そもそもデジタルとは何か?デジタルとはその言葉の通り、物事を数値化することである。時計の針でいえば、「短針が一番上、長針がちょっと右斜め上くらい」を「12時4分」に言い換えることである。逆も然りである。「12時4分」といえばどんな時計でも同じ針の位置に固定できるが、「短針が一番上、長針がちょっと右斜め上くらい」と言っても12時3分かもしれないし、5分かもしれない、6分15秒かもしれないのである。

デジタル化することで複雑な物事を極めて短い文章で表現でき、物事を再現することも確実にできるようになった。

デジタル化することで物事を記録、保持、再現、移動することが極めて容易になった。現代のコンピュータ、インターネットの要の技術といえる。

だが、これはデジタルがアナログに優っていることを意味しない。あくまで世の中のアナログな出来事を単純化して数値化して近侍したものを生み出す技術にすぎない。

デジタルの時計は12時4分を確実に表示し伝えることはできるが、12時4分4秒03と12時4分4秒05を区別することはできない(もちろんできる時計もあるがごく一般の話)。

だがアナログ時計はその違いを秒針の微妙な角度の違いを持って再現することは理論的に可能である。ただし、アナログは表現は可能であっても読解することはほぼ不可能であるし、同じ針の位置を別の時計で表現することは不可能である。

 つまり何が言いたいのかというと、デジタルはアナログが進化したものではなく、物事の考え方がそもそも違うということだ。

それぞれの特徴をまとめると、デジタルは情報の保持、再現に秀でているが数値化される過程で周辺の情報が削ぎ落とされる。アナログは多大な情報を有することができるが解釈にも個人差があり、再現、複製は不可能に近い。

 世界がコンピュータやインターネットを駆使した技術革新を行う上でデジタル化は欠かせない。世界中の人々がどこでもいつでも一様のサービスを享受するには物事の記録、保持、再現、移動の技術は不可欠であるからである。

 であれば自然とデジタル化は進むが、デジタルの弱点を補うことが大きな目標となる。いかに情報を削ぎ落とさずに数値に変換できるかということだ。

写真ならより鮮明に表示するためにひたすら画素数は増えていく。C Gは昔はポリゴンと言われていた通り多角形の箱のような立体物がより細かく分割され滑らかになっていく。

デジタル化の技術が進むにつれて情報量は莫大になり、人間が把握できないほどの量になっていく。結果として人間が認識する時点では、数値化されたデータには直接触れることなく、現実社会に極めて近いC Gを直視することになる。この世界では昔のように画面上のドットを数えることなどできなくなる。

 極めて膨大な数値データからなる情報をその出力されたものを通じて理解するのはアナログ的な動作である。

 と、そもそもアナログな世界とは何かを今一度考える必要がある。例えば時計の針はある時刻を指し示していると同時に、金属でできている物質である。この金属は金属原子からなるものだが、その原子も陽子と中性子と電子からなる。原子もよく考えれば3進法で表現することができるのである。分子レベルで3進法で世界を表現することも理論上は可能なはずだ。私たちが住んでいるアナログな世界も分子レベルで分解すればデジタル処理して再現することもできるのではないか。

 つまり、現代のデジタル化は情報が再分化されればされるほど、実生活のアナログな世界に近づいていくし、そもそもアナログなこの世界も究極的にはデジタルで再現可能ともいえる。そう、デジタル化はアナログに向かって進んでいくのである。


とまあ、一見たいそれた当たり前のことを書いたが、なぜそんなことをしたかというと、私は音楽のA I作曲が本格化すると思うからである。

音楽の歴史は現代の科学技術に沿って進歩してきた。現代はA Iの進歩が盛んでありこれがどう音楽に取り込まれるかを考察する。

現代のポップスの根幹技術はボーカロイドやM I D Iなどを利用した楽譜への打ち込みである。打ち込まれた楽曲をそのまま完成品とするか、打ち込みで製作した楽曲をもとに演奏家が演奏するか様々ではあるが、打ち込み技術が大きな役割を占めているのは間違いない。

 だがこれは楽曲作成に関していえば、これまでのデジタル技術の域をでない。あくまで楽譜という言語化されたものを利用しているだけであり、一歩進んだ表現をするためには生演奏を挟むかサンプリングされた音を巧みに加工するなどしてオリジナリティを出すことが必要である。

 私はA I技術でさらにすすんだ作曲方法が生まれると信じている。それは「極めてアナログに近いデジタル表現」である。

 例えばこれまでの技術ではBPM60の4拍子といえばひたすら4泊ずつ一定のリズムが流れるはずである。A Iが過去の人間の生演奏を学習すればBPM60と言っても楽曲の中で展開に合わせて59.995とか60.03とか人間が認識できるかどうかの調節を自然にしたり、4拍子と見せかけて67/17拍子だったり、Aの音が440Hzだったり440.1Hzだったりが自然に調整されるのではないかと思う。このような極めてアナログに近いデジタルな調整が人間の意識されないレベルで行われて、聴くものの心を知らず知らず動かすような表現が意図的にできるようになったらもうシンギュラリティと呼べるのではないだろうか。


アナログレベルのデジタル技術の進化をシンギュラリティと私は呼びたい。


この記事が気に入ったらサポートをしてみませんか?