- Imagine & Inspire - あなたは、もっといい音でつくれる。

様々なメディアで紹介される「機材の使い方」ではなく、「録音のノウハウ」をレコーディングエンジニアが紹介。大型スタジオではなく、小規模スタジオ、お世辞にも良いとはいえない機材環境で生き抜いたが故に身に着けた、与えられた機材で自分の求める音を出すためのテクニックを、自由気ままに紹介します。 動画がスタンダードになって久しい世の中。想像力を使うことも音楽制作の楽しみという考え方から、基本はテキストでの紹介。どんな音がするのか?自分の環境でどう活用するか?想像する力を、あなたはまだ持っていますか?

だいぶ空きました、すいません。

全体の音圧っていうのは結構誰でも注目するもので、他の一般的な音源と合わせて聞いた時に大きな音量差が出ないように意識すると思います。単純に自分の音源だけ音が小さく聞こえるとなんとなくさみしいですしね。普通のJ-POPを聞いている一般リスナーは音楽のダイナミックレンジまで意識しないで聞くので、小さく聞こえると聞いてもらえなかったりすることもあるので、ある程度は考えておく必要がありますね。

で、以外と忘れがち、考えられていないのが左右の音圧レベルについてです。
これは考えられていなくてもいいといえばいいんですが、知っておく必要はあるかなと思います。


例えばある楽曲のミキシングにおいてパワーコード主体のディストーションギターを左に、ストリングスを左右に振り切ってパンニングしたとします。この状態でスピーカーで聞くと、まぁ普通ですよね。


で、ヘッドホンで聞いてみましょう。


まぁ1回くらいは大丈夫ですし、気にしない人は最後まで気にしないと思いますが、このミキシング、聞いていると多分疲れるんです


何故かというと、左のディストーションギターが絶え間なく左耳を押してくるからなんです。押してくるという表現が正しいかわかりませんけど。かつ、右には何も単体楽器がいない状態なので、左側の圧力だけが常時高くなってしまうんですね。


まぁこういう表現だといえばそれまでなんですが、やっぱり聞きやすい、たくさん聞いてもらえる音にした方がいいことは多いと思います。そういう時に考えるのが、左右の音圧です。これは音作りだけでなく、アレンジや楽器の音の特性もある程度理解していないと難しいかもしれません。


かんたんに言うと、左右の楽器や音の配置は、ある程度左右対称に配置していったほうが聞きやすくなる、ということです。気になってしまった時の対策はいくつかありますので、参考にしていただければと思います。


#1 楽器の配置を均等になるように配置する
最も簡単な方法です。左にディストーションギターを配置したら、右にはアコースティックギターとか、オルガンとか。ずっと鳴っている楽器が左にあったら、右にも似たような役割を持つパートを配置するという手法です。


楽曲を聞いて、それぞれのパートの役割を理解していけば、あまり考えなくてもできるようになると思います。ま、単純に定常的に鳴っているギターパートが3本あったら、3本とも左にパンニングするケースは少ないですよね?そういうことです。


ライブ音源などの場合は、メンバーの位置が固定されているのであまり動かせませんが、普通のレコーディング音源の場合は左右配置は結構自由にできると思います。ですので、左右の配置がある程度均等に、バランスが取れるように配置してみてください。


#2 反対側に音圧調整用の音をエフェクターで作って配置する
これは楽器の数が少ない場合や、ずっと鳴っているパートが少なくバランスが取りづらい場合に使えます。先程例に出したディストーションギターなどに有効な方法です。


ギターでしたら、ディレイが使えます。
ギター本体は左に、ウエット100%のディレイをかけた音を右に配置してください。ディレイタイムはものすごく短くていいです。多分5ms以下でいいかなと思います。


この状態で再生すると、ギターはどこから聞こえるでしょうか??


そう、左から聞こえるんです。
何故かというと、人間の耳は同じ音であれば先に聞こえた方にいると錯覚するので、左に聞こえます。

つまり、「左に配置したい!」という意思を反映しながら、左右の音圧調整ができます。実際には左右から音が出ていますので左右両方の耳が使われる状態になり、「押されている感」は左右均等になり、結果、片側からだけ出ているときよりも聞きやすく感じます。でも、左から聞こえます。


弱点は聞こえていない音で全体の音の容量を消費してしまいますので、パート数が多くミキシングが苦労するような楽曲では使えません。そういう場合は、パートがたくさんあると思いますので、#1の方法で反対側に配置すべきパートを見つけて、左右の楽器配置でコントロールするのが良いと思います。


#3 ステレオイメージングエフェクトを使ってステレオ化してコントロールする
#2の場合は、左に聞こえているようにしながら左右の音圧調整をする技でした。#3は、左右から聞こえている状態にしてしまいましょうという技です。


プラグインにステレオイメージング系のエフェクトというのがあります。
何種類かありますが、どれでも使えます。その名もずばりのステレオ化エフェクト、コーラス、フランジャー、フェイザー、などですね。


モノラルの音源に対しこれらのエフェクトをかけると出力はステレオになりますので、モノの時と異なり左右どちらにも音を出すことができます。ただし、原音を大きく変える目的でエフェクトをかけるわけではないので、パラメーターは薄めに設定するのがコツですね。コーラスであればレートなゆっくりに、デプスは浅めに設定します。


欠点は、このまま出すとセンターを中心にしたステレオになってしまうので、ボーカルなどのセンター配置パートの邪魔をすることがあります。左右どちらかに多少ずらして配置すると良いかなと思います。L80%R30%くらいにすると、やや左に配置されたままステレオになります。


もう一つの欠点は、元の音源より聞こえにくくなります。なぜかというとこれらのエフェクトをかけると位相が崩れますので、当然原音より前に出にくくなります。ですので、リードパートにはこの技は使えません






と、いうことで、左右の音圧差について考えておくと聞いていても疲れない音にできます、という回でした。他の技と一緒で、全部の楽曲に対してやる必要はないと思います。が、知識として知っておくといいかなと思います。特に最近はスピーカーよりもヘッドホン、イヤホンで聞くことの方が多いので、スピーカーで聞いても大丈夫だからいいや、というわけにはいかないと思います。左右音圧差の問題は、スピーカーよりもヘッドホンで顕著に起こりますので、昔よりも気にしなければいけないポイントだと考えています。

この問題、まずリスナーは気が付かない問題なんです。なんで疲れるかはわからないけど、なんとなく聞きにくい、疲れるという状態になってしまいます。ですので、音のことをリスナーより少しだけ知っている、音を作る側の人間が気にしてあげないといけないことかなと、筆者は思っています。余談でした。

DAWでのミキシングが主流になってからは、トラックがモノラルなのかステレオなのか、あまり意識することがなくなってきました。

テープレコーダーの頃は、ステレオの場合2つトラックを使ってしまうので、録音する前にモノラルかステレオか、必ず考えなくてはいけなかったのですが、DAWではボタンひとつで切り替えできますし、どちらでも1トラックとして考えるため、あまり深く考えなくなってきたように思います。



今回は、この「無駄にステレオ化されたトラック」をモノにすることで情報量を減らして隙間を作るという技です。



まずは、ステレオとモノラルの信号の扱いを理解しておきましょう。



音楽作品を作る場合、ほぼステレオでマスターを作成しますね。
ステレオ環境におけるモノラルトラックとはどういうことでしょう?

モノラルトラックを、センターに定位させて再生する場合どうなっているか?

この場合は、左右のチャンネルに同じ大きさで信号が送られ、左右のスピーカーから全く同じ音が同じ音量で聞こえることによって、センターから音が聞こえます。正確には、センターから音が聞こえるように聞こえます


パンを振るとどうなるか?

この場合は、左右のスピーカーに送られる音量のバランスを変えることで、定位が変わったように聞こえるということになります。 これも先ほどと同様で、左右どちらかに寄った場所から音が聞こえるような気がする、という事です。

どちらも、再生しているデータ(音声信号)は1チャンネル分で、ミキサーに手渡すときに信号が分割(パラレル分配)されているという事になります。ミキサー以降にステレオ化されていることになりますね。ミキサー以降では、信号は2チャンネル分です。


次に、ステレオ音源の場合はどうでしょう。

ステレオの場合は、異なる音が2チャンネル分用意され、これがそれぞれのスピーカーに送られることになります。再生されている信号の部分から2チャンネル分ある、ということですね。
ステレオでは、左右それぞれに送った2つの信号の中身によって、左右スピーカーの間が補完されます。
なぜ左右の間という位置が表現できるかというと、これも左右チャンネルの音のバランスが関わっています。



ざっくり言うと、実際のところは左の音は左右にパラレルで送られつつ、基本的に右側からは出ないという状態なのです。右のチャンネルも同様です。


つまり、ステレオの場合はミキサーに入れる前からモノラルの2倍の情報量があり、かつ2倍の信号処理を行っているという事になります。



ミキシングは、たった2つの限られたトラックに、膨大な情報量をコントロールして詰め込んでいく作業でもあります。


従って、無駄な情報があると、本来聞かせたい情報の邪魔にしかならないわけです。


と、いうことで、長くなりましたが、ステレオの必要なない音源は、モノラルで扱いましょうというのがこのテクニックです。

理論的にはどうなのか賛否両論かもしれませんが、モノラル化を進めて行くと、何もしなくても音の隙間ができてきてミキシングしやすくなり、また、聞かせたいトラックを聞かせやすくなります。



どういったトラックがモノラル化できるか?


DAWのプラグインベースでやっていると、ほとんどのプラグインシンセはステレオ音として扱われています
プラグインシンセの場合、ミキシング作業前に録音(オーディオ化)した方がいい仕上がりになりますが、この時にモノラル化できるものをモノラル化します。


たとえばベース。シンセベースも同様です。

他にも一般的なアコースティック楽器類の音は、モノラルにしても大丈夫なものが多いです。

他にはリードシンセなどのリード系パート。
これは確実にモノラル化したほうが、立った音になります。



逆の視点で、モノラル化してはいけないトラックとはどういうものでしょう?

これは、そのトラックをモノラル/ステレオで切り替えてモニターしてみて、音に変化が現れるかどうかで見極めることが出来ます。ミキサー上で切り替えられると思いますので、切り替えてみてください。

ベースなどは変わりませんが、シンセサイザー系の音は結構変わってしまうものが多いです。(当然ですが)



これらを全部徹底的にモノラル化して、モノラルトラックとしてミキシングを進めてください。


プラグインシンセの場合は、多くのDAWでオーディオ化する機能があります。
これでオーディオ化するとたいていステレオにされます。

モノ化する方法としては、
・別のオーディオトラックを作りそこにモノラル出力し録音する
・ステレオオーディオ化されたトラックをモノラルにコンバートする
のふたつが考えられます。
やりやすい方でやってみてください。


もう一歩進んだテクニックとしては、表現としてステレオが必要かどうかを考えることもできます。


たとえば、アコースティックギターのバッキングを録音する際に、モノラルで録音することもステレオで録音することも出来ますよね。それぞれに長所がありますが、ステレオ録音の場合は広がりのある音に、モノラル録音の場合はピンポイントで定位するシンプルな音になります。


どちらがいいのか?ということになりますが、これは音楽やアレンジによって答えが変わってきます


ものすごくパートの多い楽曲では、モノラルで録音したほうが、結局後で良く聞こえます。

逆にパート数の少ない音楽では、ステレオで録音した方が全体のサウンドがリッチになります。パート数が少ない曲をモノラルばっかりで構成するとスカスカになって寂しいサウンドになってしまうのです。



今回のテクニックで最も重要なのは、このようにすべてのトラックに対してモノラルとステレオどちらが良いか考え、選択していくという部分です。


結構忘れがちですが、これだけで結構変わりますよ! 
ひとつひとつの音を考え、意味のない音を排除していくという工程が、最終的な仕上がりに大きな影響を与えます。意味のない情報は、マスターに入れてはいけない、という事ですね。

是非やってみてください。

 

いままでなんでこれを書かなかったのか不思議でもありますが、この質問が昔からすごく多いです。



どうやって音圧を上げればいいんですか?



という奴です。


普通にミキシングして、いい感じのバランスをとった状態にすると、たいていは市販の音源よりも音量が小さい状態になります。コンポなどのオーディオシステムで聞くと、音量を上げないと同じように聞こえない、という状態ですね。


一般的にはマスタリング工程で市販の音源と同じように聞こえるよう調整しますが、ミキシングの終了段階でもある程度の音量が出ていないと納得してもらえないケースが増えてきました


ですので、ミキシングの段階である程度の音量にするために、音圧をアップするテクニックは必要です。



音圧アップに関しては賛否両論あり、筆者も相当に考えた時代があります。


音圧を上げるということは、楽曲のダイナミックレンジを狭くしていく方向にあり、音楽的には表現領域をせまくしていく方向にあります。

しかしながら、音圧の低い音源は、一般リスナーが聞いたときにインパクトの弱いものになり、最後まで聞いてもらえる確率が低くなるのも事実です。

この一般リスナーというところがポイントで、音楽自体のダイナミックレンジなどの表現を重視する、リテラシーの高いリスナーにとっては、あまり音圧は必要ないのです。正確に言うと、常時音圧の高い状態が必要ないということです。クラシックを聞く人や、ジャズ、フュージョンなどインスト音源が好きな人、などですね。

ということで、ざっくりまとめると、POPSをはじめとした一般リスナー向けの音源では、音楽を聴いてもらうために一定の音圧を出しておくことが必要というのが筆者の意見です。とはいうものの、1990年代の爆音競争の時代は終焉し、そこそこの音圧で聞いてもらえる時代になってきました。

楽曲配信などが盛んになり、音楽がアルバムなどの大きな単位でなく、楽曲ごとに扱われるようになったのも影響していると考えています。



では、前置きが長くなりましたが本題です。



プラグインなどでマキシマイザーという種類のエフェクトがありますので、これを使います


マキシマイザーはコンプレッサーなどダイナミックレンジをコントロールするエフェクトの1種ですが、動作が異なり、プラグインのマキシマイザーの場合は、たいていデータを先読みしてスレッショルド以上の信号を確実に圧縮します。コンプレッサーは信号が来てから動きますが、マキシマイザーは先読みするんですね。


最近はDAWを買うと最初からなんらかのマキシマイザーが入っていることが多いですね。


ですので、信号が設定値を超えてはいけないマスター段やマスタリング工程に向いたエフェクトです。


これを、マスタートラックに入れます。


と、ここまでは結構やったことがある人が多いと思います。



でも、多分うまくいかないんです。



マキシマイザー1つでレベルを稼ごうとすると、結構音質が派手に変わってしまうんです。



ということで、マキシマイザーを複数使って、少しずつ音圧を上げていくのです。



簡単で、2つ、ないし3つ同じマキシマイザーをマスタートラックに入れます。



後段のマキシマイザーから設定していきますが、2段目、3段目のマキシマイザーはたいてい1dB~2dBくらいリダクションがかかる設定で十分です。

1段目のマキシマイザーは最大で5dB~6dBくらいリダクションがかかるよう設定します。


これで聞いてみてください。


マキシマイザーひとつで10dBリダクションするのと、多段で10dBリダクションするのを聞き比べてみてください。


大分自然にならないでしょうか。


と、これが多段マキシマイザーという技です。
単純なんですが、結構効きます。 


実際には、マキシマイザーをかけて音圧を上げると周波数特性が変化しますので、マキシマイザーの前にイコライザーを入れて、変化が出ないよう調整するともっと自然になります。


特に4~5kHz付近は音圧が上がると耳に痛い帯域になってくるため、ゆるいQのピーキングで少しカットしておくと、音圧をあげて丁度よくなります。


さらに音圧を上げる方法ももちろんありますが、詳細は別の機会に書きたいと思います。

音源の中の音楽的に不要な帯域をカットしていき、音圧を上げる余地を作る作業をすることで、もう一段階音圧をあげることができます。


と、いうことで人気の音圧アップテク第1弾でした。

 

このページのトップヘ