Avid VENUE | S6L 導入事例 #09:Avidライブサウンド最前線 イマーシブ・ライブサウンド サカナクション オンラインライブ「SAKANAQUARIUMアダプトONLINE」に見るS6LとSPAT Revolutionの活用

By in ライブサウンド
image_pdfimage_print

2021年11月20-21日、“舞台×MV×ライブ” というコンセプトで4階建てビル相当の巨大な造形物「アダプトタワー」を舞台としたオンラインライブ「SAKANAQUARIUMアダプトONLINE」が行われた。

常に進化を続ける人気バンドサカナクションが行った配信ライブではAvid VENUE | S6Lと話題のSPAT Revolutionソフトウェアが使われたという。

長年同バンドのオペレーターを務める株式会社アコースティック社長 佐々木幸生氏にこのライブの背景と、Avid VENUE | S6Lを使い続ける理由について伺った。

 

サカナクションの取り組む立体音響演出

――サカナクションと言えば近年イマーシブオーディオに取り組んでいるということが話題になっています。経緯を教えてください。

■6.1サラウンドっていうのを2013年くらいからやっていました。いわゆる3Dツアーと呼ばれているのは今回で3回目ですね。もともとは今風のオブジェクトベースのイマーシブではなく、本当に物理的にフロントLR、サイドLR、リアLRで。だからそこに振り分けてあるのはシーケンスだけだったんです。リアルタイムでそこに振り分けるというのも、ちょっとやっていましたけど。2in 6out の6chパンナ―というのを作ってもらって。それでも2inだから、リアルタイムでいじれるのはその2chしかない。あとはシーケンスに入ってる音源をそこに振り分けて、コーラスは横から来るとか、飛行機のSEが後ろから前に行くとか、サラウンドになってますよということを実感してもらえるような演出をやっていましたね。

 

――そういったシーケンスの音像移動っていうのはある程度スタジオで組み立てて持ってこられるんですか?

■そうです。メンバーともあらかじめ打ち合わせしてあって、最初は幕張メッセだったんですけど、メッセの楽屋にもその6.1のちっちゃいシステムを組んで、実際にそこで直しをしたりとか、会場で実際ならしたりもしたりとか。割とプリプロの段階で詰めたものを実際の会場でならしている感じです。ただし最終的に会場でもチェックするのは、実際に鳴らしてみてその距離感とか、時間差がどこまで許容できるかのチェックはしなければならないですからね。

 

――それが第1回目の6.1ch。そのあとd&b Soundscapeを導入されました。

■六本木EX THEATERで初めてSoundscapeを使ったとき、「Sound Visual Session」はステージ上180度のSoundscapeだったので、見た目と立ち位置が一致するということを目的にやっていました。音の定位が客席のどこからでも確認できるという意図ですね。

そのあとに「暗闇」っていう別のタイトルの演目があって、名古屋でやったんですけど、そのときもSoundscapeでやりました。全く別の演目、暗闇の中でやるっていう催しです。

ですから実際は6.1chでやろうとしたことと、Soundscapeでやろうとしたことはそもそもコンセプトが違います。ただS6LでやるとSoundscapeはいろんなパラメーターが盤面に出てきますから、音聞きながらそれを動かしていくっていう、割と簡単にできる。PCでもできるけれどPCがなくてもそれができるっていうのはいいなと思いました。

 

――そしてアダプトオンラインです。コロナが始まってからのサカナクションチームのことを教えてください。

■コロナが本格化してきたとき、まだツアーの途中でした。2019年の2月、仙台でライブをやっていまして、仙台は2Daysだったんですけど、東京でやってる別のアーティストの公演が中止になったっていう情報が入って来ました。幸いにもその時点ではまだ仙台では感染者が出ていなかった。とりあえずやれるだろうということで、一応その日はやって、本当はすぐそのあと札幌だったんですけど、それも延期になってしまいまして、そのあと結局、延期→延期→中止ってことに。そこから活動はパタっとなくなってしまって。

これまでアーティストというのは表現の場としてCDを作るかライブするかしかなかったわけですけれど、この頃になるとオンラインライブを皆いろんなところでやり始めていた。サカナクションもオンラインをやることになるんだけども、他ではやってないようなオンラインをやりたいと。ただライブ流すんじゃなくて、映像もしっかり作りこんで、だけどちゃんと生でライブするってことをやりたい。最初は生配信で映像に凝るということだけで企画が進んでたんですけれど、配信ならではのできることがあるんじゃないかなと思って、そこで3Dっていうことですね。配信でも「3D」できるんじゃないのっていうことで探しました。そしてKLANGにたどり着いて。もともとイヤモニ用ですけど、配信だったらみんなイヤホンで聞いてもらえば同じだろうということで、それで実現したんです。

 

――KLANGでやってみて課題は何でしたか?

■KLANGはハードウェアなので、配信ということでアウトは実際2chで済んだんですけど、インを増やすとアウトが減るし、アウト増やすとインが減っていくっていう、ハードならではの制約があって。

あと3Dにすることによって、2Dで音を作ってた時とちょっと音質が変わる。定位させることによって位相が変わるわけですから。それが2Dでミックスを作りこんでいたものを3Dにしたときに、ちょっと位相が変わってハイ上がりになったりしました。とくに一番顕著に表れるのはステレオに組んであるもの。例えばキーボードとか、シーケンスとか、それを動かすと如実にL/Rで位相感が変わってくる。マニピュレータさんはそもそもレコーディングエンジニアなので、この音色が変わるのは許せない。ステレオ物はちょっと無理だねって話になってしまった。

あと3Dにすることによって見るパラメーターが増えること自体も時間がかかる要因になります。オペレーターにとっては見る場所が増えるっていうだけで結構大変で。作りこむのに結構時間がかかるから、リハーサルの時間をたっぷりとってないと、大変だと感じましたね。クオリティを保つためには結構時間が必要です。

 

――KLANGでやるときも別にミキサーはあるんですよね?

■S6LのダイレクトアウトをポストフェーダーでKLANGに入れて、KLANGのほうのミキサーは全くいじらずに、あくまで卓のほうで音色とかは作っていきます。

そうしないと2つ操作するデバイスができて、そっちも見てこっちも見て、になっちゃう。とにかく時間がかかります。

 

――そこで今回の配信ではSPATが採用されました。SPATであればS6Lのサーフェース上でコントロールすることもできます。SPATを使ってどのような事を感じましたか?

■SPATのほうが正直音色の変化は少ないです。SPATのほうが定位を動かしていっても音色の変化はほぼないです。ただステレオで組んであるものに関しては、どうしてもちょっと違和感が出ちゃう。シーケンスやキーボード、サカナクションはステレオ素材多いですから、モノで出てるのってドラム、ギター、ボーカル、その辺だったら定位させることはできるんだけれども、ステレオ物は動かすのは厳しいと感じました。

株式会社アコースティック社長 佐々木 幸生 氏

Avidライブコンソールとの歴史について

――続きましてAvid VENUEのことを伺っていきたいと思います。S6Lの前からAvid VENUEシリーズをお使いいただいていると思うんですけど、元々Avid VENUEとの出会いはどんな感じでしたでしょうか。

■Avid VENUEを最初に使ったのはフェスだったと思います。フェスで最初にいきなりAvid VENUEを使わないといけないみたいな。でも最初はHeritageを持ち込みましたね。無理だろうと思って(笑)。とりあえずまず慣れてないし、その頃ちょうどアナログ卓からデジタル卓に変わっていく時期だったんで、まだまだアナログを持っていければ持っていくみたいな時代だったんで。だから最初の印象はめちゃくちゃ悪くて(笑)。

当時アナログしか知らなかったわけですから、Avid VENUEは音もアナログに比べるとちょっと薄いっていう印象が正直なところあって、プラグインもまだ全然知らなかったわけですから。結局そういうプラグインを挿していって解決しなきゃいけない、ミキサー自体はまっさらなもので、プラグインを挿して色をつけていくという。それがわかったのがだいぶ後の話です。慣れるまでけっこう時間がかかりましたよね。

 

――その後自社でもProfileを導入されました。

■そうですね、2台買って。ちょっとずつ、「あ、このプラグイン使えばこういう音が出るんだ」というのが分かってきて。自分で使うときはもう先に絶対挿しておく、というのが決まってきました。そのうち業界標準もだいたいAvid VENUEみたいになってきたんで。フェスに行ったらもうどこもAvid VENUE。ファイルだけ持っていけば良いということになってきたので。そこからはもうずっとAvid VENUE使っています。

 

――S6Lとの出会いを教えてください。

■S6Lが出るぞっていうタイミング。まぁ悪いわけないだろうと。レディオヘッドも使ってるらしい。ちょうどサマーソニックでみたんですね。サナカクションの後がレディオヘッドで。S6L使ってるなと。それを見てすごい良さそうだなと思って。これは即変えていくべきだなと思いました。ちょうどリキッドルームもその頃ミキサーの更新時期でした。リキッドの卓も変えようと。あそこはライブハウスの中でも早かったと思います。

実際に使ってみると音がきれい。とにかく第一印象はそれでしたね。綺麗というか、奥行き感があるというか。それが48kHzと96kHzの違いだと思うんですけど、とくに金物系が全然うるさくないというか。そこが一番違うなと思いました。上げていってもうるさくないし聞きやすいし、かといって音が薄いというわけでもなくて。あとは内蔵のコンプ系がすごい優秀だったのと。そうなってくるとあんまりプラグインいらないじゃないかと。

でも必ずベースにはこれ、とかキックにはこれ、とかは使うプラグインは全然変わってないですけど(笑)

 

――S6Lを引き続きサカナクションでも使って頂いています。使い続ける理由はなんでしょうか。

■S6Lのいいところは、ソフトウェアの進化によってどんどん卓そのものが使いやすくなっていくというところです。ファームアップで進化していくのがコンピューターみたいで新しいなと感じます。これまでは機能が追加されるたびに違う製品を買わないといけなかったりしたんですけれど、S6Lの場合はソフトがどんどん進化していって使いやすくなっていくということなんで、一回それを買っちゃえばそのソフトの更新だけで良い。そういうところが一番良いなと思いました。

イマーシブオーディオを実際にやってみて

――イマーシブオーディオを現場で実践することの苦労はなんでしょうか。

■実際にライブで使うとなると、物理的にたくさんスピーカーを仕込んだりとかしなきゃいけなかったりすることになるので。あとはライブの場合、時間の制約とか客席の制約とかけっこうあるので。どこかの会場でロングランをやるっていうのであれば可能性があると思いますけど、ツアーでそれを持ちまわれるかっていわれると、そこはちょっとまだまだ大変。そんな手軽ではないという印象はまだまだありますね。

だからヘッドホンのように2つのスピーカーで3D表現できるようになったらすばらしいですけど(笑)実際には最低でもフロント5か所とか仕込まないといけない。これはなかなか大変なことです。

 

――逆に6.1chが長続きしている秘訣もその辺りにあるのでしょうか。

■6.1の場合は物理的なものなんで、仕込みの時間さえあれば大丈夫ですし、それはアリーナでしかやってないので。そうすると必ず仕込みに結構ちゃんとした時間がとれる。そういう時だったら大丈夫だと思います。

あとフロントに5ヶ所も吊るというのは意匠上のインパクトもあります。サカナクションでは「暗闇」というタイトルのSoundscapeを使った演目があったんですけど、その場合は本当に真っ暗でなにも見えないんで、どこに何を仕込んでも全然関係ないんですけど。そういういう特殊なものじゃないと難しい。「暗闇」は仕込み入れて一週間ぐらいあったんですけど。仕込みに、2~3日あって。本番は昼夜と4日間ぐらいだったと思いますね。ツアーリングで、短時間でイマーシブを仕込めるのかといったらまだまだ難しいですよね。そういう常設会場があるのはいいと思いますけどね。

タイムコード同期とスナップショットの活用

――タイムコード同期の話をお聞かせてください。

■マニピュレータからLTCタイムコードが来ます。それが卓の背面のLTC用の入力に入ります。これを使っていろいろなものをきっかけで動かしています。

 

――どのあたりを同期で動かしているのでしょうか。

■基本はエフェクトのプラグインのディレイタイム、最初はそこだけだったんです。楽曲によってディレイのタイムを変えていくというのがたびたびあるのですが、いちいちタップして合わせなくてもいいように、ここは付点とか、ここは2拍とかってスナップショットに組み込んでやっていたんです。ただ扱うチャンネルが多かったので、じゃあON/OFFも覚えさせちゃおうと、さらにここでこういうエフェクトが欲しいというような要望が出てきたので、タイムコードもらってるからスナップショットを作ってその時間で切り替わるというように。

結構デジ卓ってリアルタイムでエフェクトするのが、アナログみたいにはいかないので、もう覚えさせたほうが良いだろうと考えました。今、最終的には、AUX SENDのON/OFFとかAUX SENDのバランスとか、曲によってはEQも変更したりしています。

ただし、配信ではなくライブの時はEQとかダイナミクスはそのまま、リアルタイムでどんどん変わっていくので、そこは変更しないようにしておきましたけれど。

当日のコンディションで変えてく要素があるものは同期せず、決まったタイミングでこうなってほしいというのは同期しておく。使うチャンネル/使わないチャンネルのON/OFF、曲頭のバランス、あとエフェクトのきっかけ、は全部覚えさせています。

 

 

ライブサウンドの未来像

――佐々木さんが考えるライブサウンドの未来とは、アフターコロナあるいはWithコロナで、今後ライブサウンドはどうなっていくとお考えですか。

■いまは配信もありつつライブがあるというスタイルが、今既にほぼそうなっていますよね。コロナに対する向き合い方は人それぞれでしょうから、やっぱりまだちょっと怖いっていう方は配信でみるでしょうし。一方ライブっていうのは「体験」なので、実際目の前で起こっていることを体験したいっていう人だったらライブ会場まで行ってみるということだと思います。今はそのどちらにも対応しなければいけなくて、それに対応したMixというか、そこの差がないようなMixをするよう心掛けています。

スピーカーから出ているバランスと配信の方にいっているバランスがどちらも成立するような。まったく別に分岐していることもありますけど。自分がやっているアーティストはそのまま配信の方に行くことが多くて。

 

――配信用のエンジニアさんがいるわけではなくて、両方佐々木さんが行っているのですか?

■アンビエンスをまぜたり、映像とのタイミングを合わせたり、ツーミックスを整える専用のスタッフはいますが、ミックス自体は自分です。楽曲に合わせたきっかけでエフェクトかけるとかいう演出があるので。となってくると、配信のほうも気にしつつライブも気にしつつみたいになってくるんですけど。実際にはどういう音で配信されているのかは全くわからない(笑)そこは信頼できる後のエンジニアに任せているっていうっていうのは実際ありますよね。

 

――ということは、配信の音も結果的にS6Lの音を聞いているということになるのですか。

■そうです。今までは中継車がきて、頭わけを別ミックスしてたのですが、わりと最近はそのままいっていますね。

 

――その例が示すように、これからライブエンターテイメントはハイブリッドになっていくということなのでしょうか。

■それが普通になっていくと思いますね。ただ配信の場合、最初に流しちゃうと何本も公演があった場合はネタバレになっちゃうので。だいたい最終日に配信というのが多いですかね。最初から配信だとまだライブ見てない人たちにネタバレになってしまいますからね。

 

――例えば集客制限によってライブが減収となったとき、配信はそれを補完する要素になりますか?

■それはアーティストによりけりですね。ビッグアーティストしか、今は配信を見てくれない傾向があります。今回のサカナクションに関して言えば、視聴者がトータルで2万4千人とかいたので、配信のチケットは安いですけど、ライブの人数制限を補完するには十分だったりします。

 

 

イマーシブオーディオの未来

――イマーシブオーディオの未来についてお考えをお聞かせください。

■ツアーリングだとやはり難しいと思いますね。準備にまず時間がかかるというのと、当然ばらしも時間がかかるわけですから。トランポが増えるのはなんとかカバーできるとして、仕込みに一日必要。ばらしに次の日一日必要とか、けっこう経費が掛かっちゃうと思うので。仕事が増える音響さんはいいですけど、それは他のセクションの予算を圧迫することになる。よっぽどでかいプロダクション、たとえばワールドツアーをまわるような何万人も入るようなツアーじゃないとカバーしきれないんじゃないですかね。普通にホールをまわるぐらいのコンサートだったらなかなか厳しいと思います。

ただしイマーシブオーディオという演出表現自体には可能性を感じます。やっぱり一番のいいところは没入感です。ライブを観てて、端っこにいる人達とかスピーカーの前にいる人たちは、爆音でその片側チャンネルの音を常に聞いていなきゃいけなかったわけです。見えている景色と音の来る方向も違っていた。それがそういうことじゃなくて、実際にあそこで演奏している人たちがいて、それがひとつに合わさって聞こえてきてるんだぞっていう。もっと言うと、そのことすら意識させないのがイマーシブの一番良い所だと思うんで。これは今までのL/Rでは表現できなかったこと。本来的にはたぶん一番いいんですよ。

――最後に、サカナクションで次なる取り組みを考えるとしたら、何かもうアイデアはありますか?

■そこが難しい所で…もはや「普通」のことはできない(笑)

何かないかなと、ずっと探している状態ですね。

VENUE | S6L

ライブサウンドの次なる進化 ― 賞に輝くVENUE | S6L なら、世界で最も要求の厳しいライブサウンド・プロダクションも簡単に扱うことができます。