ボーカルMIXで歌声を飾るエフェクト
ボーカルは楽曲の中での主役、バンドの中心、顔となるものなので、目立ってナンボ、と考えてます。なのでとにかく主張させたい。だが音量を上げるだけでは能がない。ここではボーカルMIX時に、私がよく使う手法をご紹介します。また、Youtubeにて動画もご用意しました(というよりも動画の方の補足という意味合いが強いかも)。
注意
これらは必ずしもやらなければならない、というものではありません。やらなくていいことはやっちゃダメと考えてます。また、作業中は完成形を意識しての作業なのか、それとも今は試行錯誤してるのかを意識しましょう(自戒)。
1.カットEQとコンプレッサ多段掛け
まず下処理として、目立たせる前に不要なものを取り除いたり整えたり、です。後で目立たせるのですから、いらないものをそのままにしておくと、都合悪いところも目立ってしまうから、といえばイメージしやすいでしょうか。あるいは、お化粧における下地作り、とも。
最初に不要な低域をカットします。ここについては詳しくは説明しませんが、一律に○Hzと決め打ちせず、録音できたボーカルデータと楽曲のアレンジの組み合わさりをみながら決定するようにしています。ディエッサーも必要と判断したらここでかけます。
光学式コンプレッサ(LA-2Aなど)の後に、1176タイプのアタックの早いコンプレッサをかけるということをよく使います。音量を底上げしつつ、歪みも若干加わり、艶っぽさが出ます。この組み合わせのみならず、コンプレッサを一度に強めにかけるよりも、多段でなるべく自然に音量を稼ぐことができます。(厳密にはコンプレッサは音量を上げるのではなく、名前の通り大きいところを潰しているのですが・・)
セオリー的にはローカットEQ→光学式コンプ→FETコンプ(1176)→味付けのブーストEQ、といった順番が多くの場合において良いと考えてます。定番の処理ですが、きっちり追い込むことで効果を発揮し、プラグインを選ぶことで味付けも狙えます。
有料無料を含めLA-2と1176を模した、あるいは意識したプラグインはとても多く、それぞれに個性があるようですね。このように出番が多いため、各社ラインナップしているのかと思います。
話は逸れますが、Wavesだったかな・・1176とSSLバスコンプを初めて触ったとき、その音にえらく感動しました。「これはプロの音じゃないか」と。
なんだかややこしいと思ったら、AIとかの自動化処理に投げるのもアリだと思います。
2.ハモりを加える
ハモり、奥が深いです。ですが実際にやるにあたって、とりあえず加えるならすごく難しいわけではありません。また、コード(和音)などとハモらせ方の理論は別のような気もします。
セオリー的には3度下が定番ですが、場面によっては2度上などもあるようです。音域によっては現実感無くなりますが、オクターブ上も使えることがあります。
2度上はぶつかって絶対に気持ち悪いだろ・・って思いましたが、ある曲を耳コピしていて、どう聞いても2度上で重なってる部分を見つけて以来、実際に場面を選んで使ってみたら面白い、ということもありました。
メロダインでやるとして、一括で下げると当然曲の音階に合わないところが出てきます。オケと一緒に鳴らしながら聞いて、不自然なところだけ上か下(3度下なら大体下方向が多い)にズラします。メロディー次第ですが、意図的に前後と同じ音、なんてのも面白いなと思います。スケールから外れていたら即修正ではなく、面白い効果になってる可能性も考えて、一旦は結果を聞いてます。
ハモりはうまく加えられると面白いのですが、音量を出しすぎないように気をつけてます。曲によってはハモリ感を強調したいこともあるかもしれませんが、サビで盛り上がっている感を出したくて加えているので、あんまり主張されてもうまくないなー、と考えてます。
パンはあまりいじることはなく、メインに比べて残響系を多めに、という差別化をとることがほとんどで、コンプなどの処理もメインボーカルほどはなるべく手を加えないようにしています。
ハモリに加えるディレイ・リバーブなどの、その残響成分にかなり多く左右感を付けることが多いです。Ozone Imagerとかですね。むしろハモリについてはこの広がり感ある残響が目当てとも。
あとはハモリっぱなしではなく、ハモリのありなし、オンオフで緩急を付けることも大事かと思います。
3.一瞬だけ深い残響
たとえば、サビに入る瞬間のクラッシュシンバルと同じタイミングで、「ドーン」とか効果音が入るアレンジありますよね。この部分に歌が重なるのであれば、歌声にも一瞬だけ深いリバーブを掛けてあげることで、より馴染みつつも目立つ効果が狙えます。
動画でもそのようにしてますが、トラックをわざわざ分けてあります。分けたほうが管理が楽になりますし、トラブルも発生しにくそうと考えてます。
4.原音破壊エフェクトでも原音を一緒に鳴らす
iZotopeのVocal Synth2は、今風の、それもEDM向きなイメージがありますが、そうでないジャンルでも十分使えます。
場合によりけりですが、歪ませたものの思ったよりも前に出ないなというとき、輪郭が無くなっている場合がほとんどなので、元のデータも一緒に鳴らしてやると、より良くなる場合があるなと感じます。EQで何とかするというのでなく、なるべく手元にあるのものでうまく鳴らせないかと考えるようにしてます。
EQはカット、でも精密さや味付けがウリなものはブースト
動画ではなぜそうなのか触れてませんでしたが、ここでも説明しません(いろんなところで解説されてるので)。ただ、これは「表に出てくるパートの話」であって、必ずしもそうでもないかな、とも考えてます。
マスタリング
動画ではT-RacksのOneを使用してます。今流行りの自動化など無くとも、大きな2つのノブを適当に回していいなと思うところで止めればいいだけのことです。
音圧について、ここでは詳しくは説明しませんが、LUFSを図れるメーターがあるといいです。StudioOneには標準的に付いてますね。Youtubeを始めとした配信サイトでは-14LUFS(0に近いほど大きい音圧)より大きいと基本的には強制的に下げられます。CDにするとか配信と関係ないところで使う目的であればこの基準は気にしなくてもいいかもですが、あんまり海苔気味にしてるとその際には迫力がなくなることもありえます。
良い素材となるように録音したい
最近は後からどうとでもなるような魔法のようなツールがあるので、ここ数年で宅録を始めた人たちにはあまり意識されてないのかもですが、録音時点でなるべく完成に近く、ピッチや雑音などをなるべく入らないように努力するものと昔は先輩から言われたものでした。。EQが効きにくい、あるいは何をしてもぱっとしないと言う場合、録音状態が良くない場合がほとんどでした。なるべくノイズの発生源の無い、そして変な部家鳴りの無いところで録ってほしいのですが、それが難しいという・・。
あとは、EQなど補正系は、極力使わない、というか、なるべく手をかけないのがいい素材というか、エフェクトを挟んだ分だけ劣化する、という考えが頭の片隅にあります。良くするためにいろいろやってるつもりが、全く手を加えない状態のほうが良かった、なんて悲しすぎますよね。
世の中には2種類の人間がいます
ジョークです() 音楽に関わる上で、ミュージシャンとエンジニアの立場の違いがあります。この記事もそうなんですが、どちら側の人間が書いたのかな?と気にしたほうが良いと思います。ちなみに私はミュージシャン側で、エンジニアさんは精密で凄いな、って思っています。多分ミュージシャン側はド派手に分かりやすく、って考える傾向があるのでないかと。
最後に
題材となっている曲の完成形はこちら。
ご本家様 ねむちゃんねる
使用許可ありがとうございます。
0コメント