fc2ブログ

暁スタジオ レコーディング日記

ミュージシャン服部暁典によるレコーディング、ライヴ、機材のよもやま話

2013年11月 | ARCHIVE-SELECT | 2014年01月

≫ EDIT

ミュージシャン耳とエンジニア耳

あるきっかけでミックスダウンにおけるミュージシャンとエンジニアのアプローチの違いを痛感したので書いてみる。

当然のことながらミュージシャンは自分の出す音にこだわりを持っている(はずだ)。また実際に演奏する音符も「音質」に影響を与えるので、つまり「この音でこう弾く」ところまでを含めてミュージシャンの出す音だ、と言うことができよう。例えば生ピアノでは5〜6音を使って構成したハーモニーを、ローヅ(打棒式電気ピアノ)では音数を減らしたり、何段もキャビネットを重ねたギターアンプでは繊細なアルペジオは弾かず、根音と5thを中心にしたリフやソロと言った具合だ。

片やエンジニア(ここではとりあえずレコーディングの現場に限定してみる)は、その第一義として「鳴っている音を鳴っている通りに漏れなく収録すること」を目指す。エンジニアの重要なスキルであるマイクアレンジ(如何なる種類のマイクをどのように楽器や奏者に向けるか)という技術は、「漏れなく収録する」ための技術であるし、録音・収音という段階での機材のチョイスは、音楽制作における「できあがりの方向性」を決める要素として(地味ながら)極めて大きい。

現代レコーディングの現場では多種多様な録音手法が混在するが、そのほとんどの手法で一貫して死守されているのは各楽器のセパレーション(分離性)である。それはアイソレーションブースの活用や別ダビングという手法でより徹底される。つまり各楽器の音はできるだけ各々独立して収録され、ミックスダウンという作業を経て聴きやすく一貫した印象を得られるように調整される。ひとつひとつの楽器がベストの演奏・状態で収録されるわけなので、ある意味理想的なレコーディングと言えるのだが、だからこその弊害が浮き彫りになる。

どんな楽器にもその楽器が一番良く鳴る音域や奏法があって、奏者は当然その方法を熟知した上で演奏する。エンジニアはそれを「漏れなく収録」すべく最大限の努力をする。それをアンサンブルを構成する楽器すべて行うとどうなるかというと、当然飽和してしまうのである。例えばドラムのバスドラムとベースは「おいしい音域」の多くが重なっている。オルガンとギターも同様である。もしボーカルが男性であれば、男声を男声たらしめている周波数帯域はやはりピアノ、オルガン、ギターとずいぶん重なっている。これじゃあ飽和しない方がどうかしているのである。

仮に生音だけのアンサンブルであれば、ミュージシャンはこの音質的飽和を敏感に察知し、演奏で調整する。そのフレージングや音質・音量を周囲のミュージシャンが出す音と合わせて身体で最適化するわけだ。現代レコーディングにおける多重録音音源をエンジニアがミックスダウンする意味とは、まさにこの「最適化」の作業と言い換えることができる。具体的にその作業の中心は周波数成分の引き算となる。

私がミュージシャンに対して良く言う言葉で「あるものは引けるけど、無いものは足せない」というのがある。録りの段階では取り合えず最大限の最高音質で収録しておき、ミックスダウンで全音源を並べてみた時に被さっている周波数帯域で主に引き算するのである。これはある意味編曲と呼ばれる作業に近いものがあって、編曲者が音楽的知識に基づいて各楽器の配分を考えるのと同じように、エンジニアは音響的知識に基づいてそれを行うという違いがあるにすぎない。

私は楽器を演奏し、同時にエンジニアリングも行うが、演奏しながらエンジニアの耳にはなれない。同時にエンジニアに徹する時には、その素材となる演奏をしたミュージシャンの心理を考慮しないように心がける。ライヴ会場ではまた別なのだが…。そしてここまでの文章を読んでくれたミュージシャン諸氏には「ミックスダウンで何とかなる」という考えが如何に無意味がわかっていただけると思う。

こういうことは普段ぼんやりとは認識しているが、ここまできちんと文章や言葉にすることは滅多に無い。Fecabook上でこの話題におつきあいいただいたSさんに感謝申し上げる。
スポンサーサイト



| 音楽制作 | 23:28 | comments:0 | trackbacks:0 | TOP↑

2013年11月 | ARCHIVE-SELECT | 2014年01月