1

Pro Tools | HDXとPro Tools | MTRXをフル活用し、『360 Reality Audio』の楽曲制作にいち早く取り組む山麓丸スタジオ

Installed by

東京・青山にオープンした山麓丸スタジオ

今年、東京・青山にオープンした山麓丸(さんろくまる)スタジオは、ソニーが開発したオブジェクト・ベースの立体音響技術、『360 Reality Audio』の楽曲制作に特化したユニークなスタジオです。『360 Reality Audio』は、楽曲を構成する要素ひとつひとつに位置情報を付与し、球状の空間に自由に配置することで、これまでにない没入感のある音場を実現する新しい立体音響技術。認定ヘッドフォンと対応ストリーミング・サービスを利用できる環境があれば、多数のスピーカーや高価な専用機器を用意することなく楽しめるため、いま世界中の音楽関係者から大きな注目を集めています。山麓丸スタジオを運営する株式会社ラダ・プロダクションのChester Beatty氏は、『360 Reality Audio』に大きな可能性を感じていると語ります。

 

「昨年の春前くらいでしょうか。ソニーさんが開発した波面合成の立体音響システム、Sonic Surf VR(SSVR)の仕事を手がけていた関係で、『360 Reality Audio』を体験する機会があったんです。そうしたら音が再生された瞬間、“これはマズい”とSSVR以上の衝撃で……。360度どこにでも自由に音を配置することができて、SSVRにもかなり可能性を感じたのですが、それよりもさらに表現の自由度が上がったような印象がありました。間違いなくこれが未来の音楽の楽しみ方の標準になると確信したので、初めて体験したその日に、“ウチはもうこれでいこう”と決めてしまったくらいです(笑)。『360 Reality Audio』で素晴らしいと感じたのが、リスニング・ポイントを固定せずに楽しめるところ。ステレオですとスウィート・スポットがあるわけですが、『360 Reality Audio』はヘッドフォンで楽しむことができるので、“ここで聴かないとダメ”というのがない。聴き手を自由にするというか、これは音楽の楽しみ方が変わるなと思いました。それと『360 Reality Audio』は、Pro Tools用の360 Reality Audio Creative Suiteというプラグインが用意されていて、コンテンツ制作にあたってのハードルが低かったのも魅力です。使い慣れたPro Toolsを使って、これまでの延長線上でコンテンツを作ることができる。高価な専用ツールは、会社組織だったら導入できるかもしれませんが、若いクリエイターも気軽に取り組めるようにしないと、こういう新しいテクノロジーは広がっていきませんから」(Chester Beatty氏)

 

株式会社ラダ・プロダクションのプロデューサー Chester Beatty氏

株式会社ラダ・プロダクションは以前もスタジオを保有していましたが、旧スタジオが入居していたビルがちょうど建て替えのタイミングだったため、『360 Reality Audio』のコンテンツ制作に特化した新スタジオの開設を決断。多くの関係者の協力のもと、13.1chのスピーカー・システムが常設されたスタジオ、山麓丸スタジオが誕生しました。

 

「山麓丸スタジオは、完全に『360 Reality Audio』に特化したスタジオになっています。ステレオ・ミックス用にデスクを置いてしまうと下のスピーカーが隠れてしまいますし、隣りのマスタリング・スタジオなど連携しているスタジオはたくさんあるので、普通のステレオ・ミックスは別の場所でやればいいかなと(笑)。スピーカーは『360 Reality Audio』のレギュレーションに沿って、フロントLCR、LS/RS、ハイト・スピーカーが5本、ロアー・スピーカーが3本という3層構成の13.1chになっています。サブ・ウーファーは1本でいいんですが、ここでは2本設置していますね。ただ、『360 Reality Audio』はオブジェクト・ベースの立体音響なので、スピーカーの数に制約はないんですよ。立体感は弱くなりますが、5本でも3本でもよく、だからこそヘッドフォンで再生できるんです」(Chester Beatty氏)

 

スピーカーは、フロントLCR、LS/RS、ハイト・スピーカーが5本、
ロアー・スピーカーが3本と3層構成の13.1ch

そしてスタジオの核となるのが、2台用意されたPro Tools | HDXシステムです。オーディオ・インターフェースはPro Tools | MTRXを2台のHDXシステムで共有し、サブ・インターフェースとしてPro Tools | MTRX Studioも用意。山麓丸スタジオのチーフ・エンジニアである當麻拓美氏は、「オーディオ処理を分散させるためにPro Tools | HDXシステムを2台併用することにした」と語ります。

 

「トラック数が増えていくとどんどん重くなっていきますし、ROCK ON PROさんと一緒に検証した結果、Pro Tools | HDXシステムを2台用意して処理を分散させた方がいいだろうということになりました。Pro Tools | HDXシステムは、2台ともHDXカード2枚の構成で、Satellite Linkで同期させています。Pro Tools | MTRXはモニター・コントローラーとしても使用していて、DADmanですべてコントロールしています。また、『360 Reality Audio』はヘッドフォンで楽しむ人が多いので、ソニー MDR-M1STをメインに、コンシュマー用のものなど、いろいろなタイプのヘッドフォンを取り揃えていますね」(當麻氏)

 

山麓丸スタジオのチーフ・エンジニア 當麻拓美氏

Pro Tools | MTRXとPro Tools | MTRX Studio

コントローラーとしてAvid S1も活用

Chester Beatty氏が語っていたように、『360 Reality Audio』はコンテンツを制作するためのツールが、DAW用プラグイン=360 Reality Audio Creative Suiteとして提供されているのも大きなポイントです。360 Reality Audio Creative Suiteは、専用サイトから誰でも購入することができ、AAXプラグインとしてPro Tools上で使用することができます。

 

「『360 Reality Audio』のミックスを行う場合、まずはPro Toolsのオーディオ・トラックとマスター・トラックに360 Reality Audio Creative Suiteプラグインをインサートします。プラグインをインサートしたトラックはオブジェクトとして扱われ、全天球のGUIを使って360度自由にパンニングして音像を作っていくという感じですね。『360 Reality Audio』では最大128個のオブジェクトを使用することができ、モノ・トラックは1オブジェクト、ステレオ・トラックは2オブジェクトとして扱われます。もちろん、Pro Tools標準のオートメーションも使うことができます。ただ、注意しなければならないのが、オーディオ・トラックの音はプラグインからマスター・トラックのプラグインに直接送られ、マスター・トラックのプラグインがオーディオ・インターフェースを直接掴むという点です。つまりオーディオ・データは、Pro Toolsのミックス・バスを通らずにプラグイン間で直接やり取りされるということで、モニターの音声もマスター・トラックのプラグインからダイレクトに出力されます。従ってそのままですと、ミックス・ウィンドウのフェーダーを使うことができないので、ここではトラックごとにAUXトラックを作り、そちらに360 Reality Audio Creative Suiteプラグインをインサートしています。こうすれば、ミックス・ウィンドウのフェーダーを使ってミックスすることができますからね。そしてミックスが完成したら、Pro Tools標準のバウンス機能を使って、『360 Reality Audio』フォーマットのファイルを書き出します。『360 Reality Audio』では、ビット・レートの異なるファイルを4種類同時に書き出し、それをマスターとして納品する形になります。再生機のスペックやインターネットの速度に合わせてビット・レートを落とす場合、ハードウェアやソフトウェアに依存するやり方が普通だと思うのですが、『360 Reality Audio』では最初に4種類のファイルを生成してしまうというのがポイントですね」(當麻氏)

 

360 Reality Audio Creative Suite

既に『360 Reality Audio』対応楽曲の制作を数多く手がけている山麓丸スタジオ。Chester Beatty氏は、作業前のディレクションがとても重要であると語ります。

 

「やろうと思えば何でもできてしまいますので、最初にコンセプトを固めて、それに向かってミックスしていかないと大変ですね。クラシックだったら真ん中のリスナーを演者が取り囲むような音像にしようとか、アイドルの楽曲であれば飛び道具を使って楽しいミックスにしようとか。まっさらな状態で取り組んでも、決して良い仕上がりにはなりません。これからぜひ取り組んでみたいのは、『360 Reality Audio』によるライブ配信です。ライブ会場の音場表現に合っていると思うので、ライブ配信ができるようになればおもしろいんじゃないかなと。『360 Reality Audio』は今後、間違いなく定着すると思いますし、将来的には聴いている楽曲が立体音響かどうかということを意識しないようになるのではないでしょうか」(Chester Beatty氏)

Pro Tools | MTRX

新たなレベルの再現性と柔軟性を実現




ミキサーのアンドリュー・シェップスが、HDXのハイブリッド・エンジンが音楽制作におけるゲーム・チェンジャーである理由を説明します

使用製品

Pro Tools | Ultimate            Pro Tools | HDX

Pro Tools | HD Native             Pro Tools | MTRX

Avid S1                                 Avid Dock

アンドリュー・シェップスは、メタリカ、アデル、レッド・ホット・チリペッパーズ、ビヨンセ、グリーン・デイ、ジェイZ、U2、マイケル・ジャクソンなど、世界で活躍するアーティスト達と仕事をしてきた、とても尊敬されている音楽ミキサー、プロデューサー、エンジニアです。

彼はアデルのアルバム「21」で受賞した「アルバム・オブ・ザ・イヤー」を含む、3つのグラミー賞を受賞しました。長年の活躍と数々の業績にもかかわらず、彼は驚くほど謙虚で、常に技術の向上を目指しています。

 

シェップス:「私はまだまだです。自分が何をしているのかわからない。私よりもずっと上手な人がたくさんいるので、より良いものを作ろうと、いつも努力しています。」

 

彼は、デジタル・レコーディングの最前線にいました。 マイアミ大学でオーディオ・レコーディングの学位を取得してすぐに、Synclavierデジタル・シンセサイザーのメーカーであるNew England Digitalに就職しました。その後、Sound Tools(Pro Toolsの前身)を使い始める事となり、それ以来シェップスはキャリアを通じてPro Toolsを使用してきました。

 

シェップス:「テクノロジーに対して常に好奇心が強く、大好きでした。レコードを作ったり、スタジオに居たりすることで、テクノロジーと向き合えると知ったとき、それが私のやりたかったことだと気づいたのです。」

 

長年にわたり、彼は多数のアーティストの音楽制作に携わり、そして90年代半ばのPro Tools III NuBusから今日のPro Tools | HDX とPro Tools | HD NativeまでのPro Toolsの多くの進化を通じて、彼は技術を磨き、進歩させてきました。しかし、彼のミックスがより大きく、より複雑になるにつれて、HDXシステムのすべてのDSPを使用するようになると、彼はHD Nativeを使用してプロジェクトをミックスし、HDXでトラッキング・タスクを処理するようになりました。 このデュアル・リグのセットアップは長年にわたって役立ちましたが、彼がPro Tools | UltimateでHDX用の新しいハイブリッド・エンジンのベータ・テストを開始したとき、状況は変わりました。

シェップスの以前のスタジオであるPunkerpad Westは、
ヴィンテージ・アナログ・ギアで壁一面に埋め尽くされていました。

ハイブリッド・エンジン—HDXにより多くのパワーをもたらします

オーディオ・ミキサーがHDXシステムのDSPを必要とする代わりに、ハイブリッド・エンジンを使用すると、プロジェクトを完全にネイティブ・モードでミキシングでき、ボタンを押すだけでいつでもトラックをDSPモードに切り替えて録音できます。 シェップスはすぐにその利点に気付きました。

 

シェップス:「ハイブリッド・エンジンは、Pro Toolsの長い歴史上で一番大きなゲーム・チェンジャーとなるものです。私は、HDXカードを、ロー・レイテンシーのトラッキングに使用することはあっても、ミキシング作業には使っていませんでした。」

 

これは、彼がミキシングに使用するプラグインの80〜90%をAAXネイティブプラグインで賄っているからです。これらのプラグインは、大規模なセッションをHDXでミキシングするときにハイブリッド・エンジンを使用しない場合、すぐに多くのボイスを使いきってしまうという可能性があります。

 

シェップス:「これまでは、レコーディング用のHDXリグを使った後、ミキシング用にHD Nativeカードに切り替えていました。セッションが大きくなると、AAXネイティブ・プラグインで生じるラウンド・トリップによって、ミキサーがHDXカード全体を占有するため、DSPが足りなくなってしまっていたのです。」

 

DSPプラグインの後に、ネイティブ・プラグインをインサートすると、HDXとホスト・コンピューターの間でラウンド・トリップが生じ、利用可能なボイス数が減るという技術的な課題に直面していたのです。

 

シェップス:「私がハイブリッド・エンジンをテストした最初の日に、その問題が完全に解決していることに気づきました。

もうハイブリッド・エンジンを搭載したHDXカード・プラットフォームでのミックス以外は考えられません。 これは、現在存在する中で最も効率的なPro Toolsシステムだと断言できます。

 

また、2つのシステム間を移動する必要がなくなったため、レコーディング時における、ワークフロー上のストレスが大幅に軽減されました。

 

シェップス:「オーバーダブを行いたい場合は、[DSPモード]ボタンを押すだけで、オーバーダブを行えます。レコーディングをする前によく考えることはありません。お尻が痛くなるので熟考したくないという理由ではなく、それ以外の方法では、私が録音しているものを正確に聴くことはできないからです。今、私は録音しているものを絶対的に正確に聴いています。それは本当に素晴らしい事です。作業中にトラックをDSPモードに変更してロー・レイテンシーのモニタリングを得ることができるという事実は、私にとって、まさに必要不可欠な要素なのです。」

 

彼は、システム全体からパフォーマンスが大幅に向上していることも気づいています。

 

シェップス:「ステレオをミキシングする時でもわかります。ハイブリッド・エンジンを使用したシステムの負荷は、HD Nativeカードを使用した場合よりも実際に少なくなります。より少ない再生エラーやDSPエラーにより、ステレオの場合であっても、はるかに高速にミキシングできます。新しいコンピューターを手に入れたような気になります。実際にそうです。ハイブリッド・エンジンまでは、Mac Proの購入を真剣に検討していました。ですが、所有しているiMac Proでも、私がしていることの全てに対して問題がありません。現在、大規模なセッションを実行していますが、CPU使用率が20%を超えることがないのです。」

人気の高いシェップスのセミナーは定期的に開催され、ミキシングのアプローチと方法を共有します。

Dolby Atmosの可能性を探る

ハイブリッド・エンジンによってHDXでのフルタイムのミキシングに戻ることができるようになった今、シェップスは、Dolby Atmos®で音楽をミキシングする機能など、HD Nativeシステムでは不可能だったクリエイティブな機会を実現化しています。

 

シェップス:「全てのI / Oが使用可能になりました。これは、Atmosミュージックに移行する上で非常に重要です。すでに所有しているものをこんなにもアップグレードできるとは、まさにクレイジーです…今日、後ろにあるスピーカーをAtmos用に吊るしました。これには、128のI / Oが必要であり、HD Nativeカードでは不可能でした。Dolby Atmos Renderer(レンダラー)に128のI / Oを割り当てると同時に、ネイティブ・ミキサーを実行できることで、Atmos用のミキシングについて考えることもできます。ハイブリッド・エンジンなしでは絶対に不可能です。」

 

ハイブリッド・エンジンは、Pro Toolsの長い歴史上で一番大きなゲーム・チェンジャーとなるものです。

数週間後、私たちは、Dolby Atmosミュージックをミキシングするというシェップスの冒険がどのように進んでいるかを確認をしに行き(彼のスタジオは現在、正式にDolby認定を受けています)、ミックスへの通常のアプローチからの最大の変化は何であったかを見つけ出しました。

シェップスは、Dolby Atmosのミキシング用に現在のスタジオを装備し、Pro Tools | HDX、
2つのAvid S1、Avid Dock、および9.1.4アレイのPMCモニターを完備しています。

シェップス:「それはあらゆる角度から見ても、ミキシングの方法が全く異なったものになります。最も大きな違いは、ミックス・バスがないことです。ステレオ・ミュージック・ミキシングでは、ミックス・バスを使い、その作業においても大きな部分を占めています。Atmosでは、考え方を変える必要があります。ミックス・バス・スタイルの処理方法と、同様に多用するパラレル・プロセッシングを行うため、いくつかのクリエイティブな方法を思いつき対応していますが、基本的には、全く異なるものだと考える必要があります。もう1つは、劇場用のAtmosはスピーカー・ベースの再生メディアであるのに対し、Atmosミュージックはスピーカーよりもバイノーラル再生されることが多いため、ヘッドフォンにどのように変換されるかを十分に注意しておく必要があります。」

 

そして彼は、ハイブリッド・エンジンが没入型フォーマットへの進出を可能にする上でどれほど重要であったかを繰り返し述べています。

 

シェップス:「クラシックHDXエンジンでは絶対にミックスできませんでした。ハイブリッド・エンジンは、ネイティブ・ミキサーを使用しながら、必要な数のI / Oとボイスを利用できるため、Atmosミュージックを含む大規模のミキシングが可能になります。」

 

現在、彼はステレオ・ミックスだけでなく、クライアントにより多くのクリエイティブなオプションを提供できると述べています。 Apple Music、Amazon Music HD、TIDAL HiFiがすべてDolby Atmosミュージック・ストリーミングをサポートするようになりましたが、彼はそれらの要求に応える準備ができています。

Dolby Atmosは、Dolby Laboratoriesの登録商標です。

© 2020 Avid Technology, Inc. All rights reserved. Avid、Avidのロゴ、Avid Everywhere、iNEWS、Interplay、ISIS、AirSpeed、MediaCentral、Media Composer、Avid NEXIS、Pro Tools、Sibeliusは、米国とその他の国またはそのいずれかにおけるAvid Technology, Inc.またはその子会社の商標または登録商標です。「Interplay」の名称は、Interplay Entertainment Corp.の許可に基づいて使用しています。Interplay Entertainment Corp.は、Avid製品に関していかなる責務も負いません。その他の商標はすべて、各社が所有権を有します。製品の機能、仕様、システム要件および販売形態は予告なく変更されることがあります。

Pro Toolsで成功する

業界トップのツールを使って、サウンドをパワーアップ。映画/テレビ用の音楽やサウンドの制作から、世界中のアーティスト、プロデューサー、ミキサーとのコラボレーションまで自由自在。




Dolby Atmos Music—ミックスのその後

作品をリリースするため、Dolby Atmos Musicミックスを完成させ、Dolby Atmos ® Renderer(レンダラー)またはPro ToolsからADMにバウンスし、Avid Playに楽曲をデリバリーしました。しかし、この後、いったい何が起こっているのでしょう?ミックスはどのようにリスナーに届けられるでしょう?配信方法によってミックスの聴こえ方が異なるのでしょうか?これらの質問に対する答えを知っていると、ミキシングの過程において、十分な情報に基づいた判断を下すのに役立ちます。

このブログでは、それらの点を説明していきます。

 

配信の仕組み

Dolby Atmosでのミックスを聴くには、スピーカーまたはヘッドフォンを使用するという2つの方法があります。それぞれがどのように機能するかを詳しく知ることは、エンコードの過程の違いを理解するのに役立ち、同様に、Dolby Atmos Musicをミキシングするアプローチに役立ちます。

 

スピーカーの場合は、物理的に適切に配置された場所から、分離した形で音を再生できますので、没入型体験のために特別なエミュレート処理を行う必要はありません。 ただし、ヘッドフォンでの配信はまったく別になります。 ヘッドフォンでの没入型ミックスを配信するには、バイノーラルにレンダリングする必要があるのです。

 

これは、バイノーラル・オーディオの基本についての非常に広範囲にわたる説明です。(英語版)

 

再生フォーマットには、スピーカー配信用にデザインされたEC-3とヘッドフォン配信用に設計されたAC-4IMSという2つの主要な圧縮コーデックがあります。ミックスをチェックする際、リスナーが聴く状態にできるだけ近い方法で確認できることが望ましいわけですが、話はそれほど単純ではありません。詳しくはこの記事の後半で説明します。

先に進む前に、そもそもなぜデータを圧縮する必要があるのかを理解しておく必要があるでしょう。

データサイズを減らす理由

圧縮する最も大きな理由は、リスナーに配信されるデータサイズを減らす必要性があるためです。つまり、 そのままのデータ・ストリームでは大きすぎるのです。 4分半の曲のDolby Atmosミックスを考えると、使用するオブジェクトの数にもよりますが、ファイルサイズは概ね1.8〜2.5GBになります。 Dolby Atmosのデータ・ストリームを送信するには、どのくらいの帯域幅が必要でしょうか? 簡単な式 [48000 x 24 x 128 /(1024 x 1024)] を使用すると、データレートは140.625Mbpsになります。 オーディオ配信でこの帯域幅を確保/処理するのは難しいため、送信するデータの量を減らす必要があるのです。 これを行うには、クラスタリングとエンコーディングの2つのステップがあります。

 

クラスタリングについて

データ・ストリームを削減するための最初のステップは、クラスタリングです。 クラスタリングは、オブジェクトとベッドによって使用されるデータの量を減らすために、エンコードの過程で使用されます。これに関しては、Dolby Atmos RendererでSpatial Coding Emulation (空間コーディング・エミュレーション)を有効にすることで、クラスタリングを使用してミックスをモニタリングすることができます。

 

クラスタリングの基本的な法則は、同様の空間位置を占める複数のオブジェクトを、空間オブジェクト・グループと呼ばれるグループに、知的にグループ化することです。 空間オブジェクト・グループは、元のオーディオ・オブジェクトの複合セットです。 一般的なリスナー向けのDolby Atmosのセットアップでは、映画館に比べてスピーカーの数がはるかに少ないため、ミックスの全体的なサウンドに悪影響を与えることなくこれを行うことができます。 チェックすべき構成部分の数は、空間コーディング・エミュレーションが有効になっている場合、Dolby Atmos Rendererの設定で決定されます。 これに関連する値には12、14、16の3つがあります。これらの値は通常、送信されるビットレートに基づいて選択します。 どれを選べば良いか定かでない場合は、多くの配信プラットフォームで使用されている16を使用すると良いでしょう。

以下の図は、クラスタリングがどのように実装されているかを理解するのに役立ちます。 左の画像は、オブジェクトを青で、ベッドの位置を赤で示しています。 10個のオブジェクト、9個のベッドチャンネル、およびLFEチャンネルがあります。 仮にクラスター数を12に設定した場合、右側の画像で、それらがどのように集約されているかを確認できます。 一部のオブジェクトはグループ化され、一部はクラスター間で共有されます。 これにより、合計トラック数を20から12に減らすことができるのです。(厳密には、LFEチャンネルは、位置クラスターがなくても変更されないままであるため、使用可能なクラスターは11 と LFEになります)。

Dolby Atmos Renderer設定上のSpatial cording emulation(空間コーディング・エミュレーション)を有効にしてミックスをモニタリングすることは重要です。 オブジェクトのサイズ、ポジション、エレメント数などが、エンコードされたミックスのサウンドにどのように影響するかを確認できる為です。 例えば、オブジェクトのサイズ値を20以上にすると、同じオブジェクトが複数のクラスター内に表示され、非相関のアーティファクトが発生し、ミックスのサウンドが歪む可能性が生じます。クラスタリングはオブジェクト、コンテンツ、ポジション、音量などに基づいているため、すべてのミックス・エレメントが設定されてから、このエミュレーションを有効にした方が良いでしょう。すべてのミックス・エレメントが設定されていない状態でオプションを有効にしても、 そのミックスが最終的にどのように聴こえるかを想定することはできません。また、この空間コーディング・エミュレーションはモニター専用であり、最終的にADMまたはDolby Atmosマスター・ファイルにはエクスポートされないということに留意することも重要です。

エンコードについて

エンコード処理は、クラスター化された信号を使ってエンコードし、ファイルサイズを縮小する目的で行われます。エンジニアがそれについて知っておくことが重要である理由を、エンコード・フォーマット(英文)を見て理解しましょう。 最もよく使用される2つのコーデックであるAC-4とEC-3に焦点を当てます。

 

AC-4 IMS – ヘッドフォン用の配信フォーマット

AC-4は、従来のチャンネル・ベースのコンテンツ、没入型チャンネル・ベースのコンテンツ、オブジェクト・ベースの没入型コンテンツ、およびパーソナライズ化をサポートするオーディオ用のオーディオ・コーデックです。 上記で説明したように、オブジェクト・ベースのコンテンツを個別のオブジェクトまたは空間オブジェクト・グループ(Spatial Object Groups)としてサポートします。 AC-4は、ミックスが最初に7.1バージョンにダウンミックスされ、オブジェクトの詳細がメタデータとして追加されるAdvanced Joint Object Coding(A-JOC)と呼ばれる方法を使用してオブジェクトを処理します。 次に、これは再生段階でデコードされます。

 

AC-4は、配信プラットフォームを介してDolby Atmos MusicをAndroidデバイスに配信するために使用されるコーデックです。 AC-4は、Dolby Atmos Musicをミックス中に作成したバイノーラル・メタデータを伝送することもできます。 これは、ミックスをヘッドフォンで再生すると、ミックスの過程で設定されたバイノーラル・プロパティをリスナーが聴くことができるということを意味します。

 

EC-3(または拡張AC-3)–スピーカー用の配信フォーマット

EC-3は、DD + JOC(Dolby Digital Plus、Joint Object Coding)と呼ばれるオブジェクトを処理するために、わずかに異なる方法を使用します。 EC-3は、Dolby AtmosのミックスをAppleデバイスに配信するために使用されます。

 

Apple TV 4Kでは、オーディオはAtmos対応のサウンドバーまたはAVレシーバーにHDMI経由で伝送されます。 EC-3は、本来、スピーカー配信用に設計されたフォーマットですが、Apple iPhoneでのヘッドフォン配信時にも使用されています。つまり、 iPhoneでの空間オーディオ再生時は、作成したADMファイルに内蔵するDolby Atmosバイノーラル設定を使用せず、その代わりに、まずDolby Atmosファイルを5.1.4ミックスにダウンミックスし、次にその5.1.4ミックスをバイノーラル・ミックスに仮想化することにより、ミックスのバイノーラル・バージョンを作成します。この処理はAirPods自体で行われています。

 

これは、Apple Music用のAtmosミックスを試聴するときに留意すべき非常に重要な情報です。 AtmosミックスがiPhoneでどのように聴こえるかを確認したい場合は、以下の手順で行います。:

 

  1. DolbyレンダラーからMP4をエクスポートします。: Dolbyレンダラーでマスターを録音した後、[ファイル]> [オーディオをエクスポート]> [MP4]を選択し、[音楽]の設定を選択して、[OK]をクリックしてエクスポートします。
  2. このMP4をAppleデバイスに転送し、ファイルアプリに保存します。
  3. ファイルアプリからデバイス(iPhone等)内でMP4を再生し、AirPod ProまたはAirPod Maxヘッドフォンを使用してモニタリングします。ヘッド・トラッキングが無効になっていることを確認してください。

 

結論

ミキシング過程において注意すべきポイントをまとめます。:

 

  1. バイノーラル・ミックスのNear、Mid、Farパラメータは、Androidデバイスへの配信に使用されるAC-4コーデックでのみ使用されます。
  2. EC-3は、Appleデバイスで使用されるスピーカー・ベースのフォーマットであり、ADMにエンコードされるバイノーラル・パラメーターは、再生中には使用されません。Appleデバイスで再生する際の試聴は、レンダラーからMP4をエクスポートし、上記の手順を行うことでテストできます。
  3. Atmosオブジェクトのサイズ値を20以上にすると、空間コーディング・プロセスで問題が発生する可能性があるため、避ける必要があります。
  4. 最終ミックスのすべてのエレメントが揃った状態時のみで、レンダラー上のSpatial Coding Emulation(空間コーディング・エミュレーション)をオンにします。

 

これらの情報はミキシング過程において、どのように活用すれば良いのでしょうか?可能な限りリスナーが聴くのと同じ状態で、ミックスを確認したいと思うのは当然です。Dolby Atmos Renderer内では、クラスタリング・プロセスの効果をエミュレートできます。 また、上記のMP4の方法を使用して、Apple空間オーディオで再生されるEC-3コーデックのミックスを試聴することはできますが、AC-4コーデックのサウンドを簡単にエミュレートすることはできません。 より多くのAtmosコンテンツをミックスし、経験を重ねることで、ミックスがさまざまなプラットフォームにどのように変換されるかを、より理解できるようになります。 私は、多くの人がヘッドフォンで聴くことが想定できるコンテンツの場合は、こまめにミックスをスマートフォンに送ってチェックしています。 また、MTRX StudioのキャリブレーションEQも使用して、さまざまなタイプのヘッドフォンでのサウンドをエミュレートします。

 

この記事をお読みいただきありがとうございます。Dolby Atmos Music用ミックスを作成する際に役立つことを願っています。 また、このブログに貢献してくれた同僚のDave Tylerにも感謝します。

 

関連リンク:
Dolby Atmos Musicでミックスするためのヒントとトリック
AvidPlayで Dolby Atmos® Music を配信する方法(Apple Music編)

Dolby Atmosは、Dolby Laboratoriesの登録商標です。

© 2021 Avid Technology, Inc. All rights reserved. Avid、Avidのロゴ、Avid Everywhere、iNEWS、Interplay、ISIS、AirSpeed、MediaCentral、Media Composer、Avid NEXIS、Pro Tools、Sibeliusは、米国とその他の国またはそのいずれかにおけるAvid Technology, Inc.またはその子会社の商標または登録商標です。「Interplay」の名称は、Interplay Entertainment Corp.の許可に基づいて使用しています。Interplay Entertainment Corp.は、Avid製品に関していかなる責務も負いません。その他の商標はすべて、各社が所有権を有します。製品の機能、仕様、システム要件および販売形態は予告なく変更されることがあります。

MUSIC THAT MOVES

Dolby Atmosが伝える変革するサウンド・クリエイションの世界。Pro Toolsが伝える変革するサウンドプロダクションとミキシング方法。イマーシブ・ミキシングのための最も強力で拡張可能なエンド・ツー・エンドのツールセットを、ぜひ体験してみてください。




Pro Tools | HDX + Avid S3 導入事例:FK Studio

Installed by

2007年に設立された株式会社富士巧芸社(東京・千代田区)は、映像制作に関わる様々なサービスを提供している会社です。中でも放送業界/映像業界で特に知られているのが人材派遣事業で、編集オペレーターや音声のミキサー、配信専門の技術者など、300名以上のスタッフが在籍。制作現場に経験豊富な人材を派遣し、テレビ局や制作会社、ポストプロダクション・カンパニーから厚い信頼を得ています。

2021年4月、東京・赤坂にオープンしたFK Studio。写真はMA室

そんな富士巧芸社は先頃、東京・赤坂にFK Studioと名付けられた自社スタジオを開設。これまでもマンションの一室で編集業務を行なってきた同社ですが、MA室を擁する本格的なスタジオを開設することで、ポストプロダクション事業を本格的にスタートしました。富士巧芸社代表取締役の内宮健氏は、自社スタジオを開設した経緯について以下のように語ります。

 

「スタッフから“これからは社内で編集もやっていきませんか”という提案があり、銀座のマンションの一室を借りて2017年7月に編集室を開設したんです。編集室を開設するには億のお金がかかると思っていたので、凄く安く始められることを知って驚きましたね(笑)。そしてお客様もそれなりに付くようになり、これだけ需要があるのであれば、もう少し広い部屋でやってみようということになりました。でもMA室に関する知識はまったく無かったので、以前からお付き合いのあるラフトの薗部さん(株式会社ラフト代表取締役/クリエイティブ・ディレクターの薗部健氏)に相談して、プロジェクトがスタートしたんです。それが2020年の3月くらいのことですね。スタジオの規模に関しては、最初から編集室2部屋、MA室1部屋という構成を希望していて、この物件に決めたのは、薗部さんの会社から近く、比較的新しいビルの最上階というところも気に入ったからです」(内宮氏)

欧米ブランド製の椅子や収納家具が置かれるなど、デザインにこだわった内装になっている

アドバイザーとしてスタジオ設計に深く関わった株式会社ラフト代表取締役/クリエイティブ・ディレクターの薗部健氏は、「居心地の良い空間を目指して、細かい部分にまでこだわった」と語ります。

 

「ビルは少し歪な形状なのですが、最上階ということで天高があるのは良かったですね。MA室の施工に関しては、軽量コンクリートを使った湿式で、完全に浮き床構造になっています。デザイン面で意識したのは、ヘビーデューティーさと美しさが両立した“機能美”。天井のレールは垂直に、スタジオ内の吸音板もスクウェアにきっちり取り付けてもらいました。私は美しい場所からしか美しいものは生まれないと思っているんです。ただ飲食ビルということで、消防法の関係で不燃材しか使用できなかったのが大変でした。普通のスタジオで使用している難燃のジャージー・クロスのような素材が使えず、吸音パネルも経産省の不燃認定がある特殊なものしか使えなかったんです。部材の選択肢が少なかったのが苦労した点ですね」(薗部氏)

コントロール・ルーム左手に設けられた収録ブース

そしてMA室のメイン・システムとして導入されたのが、Pro Tools | HDXとAvid S3の組み合わせです。Pro Tools | HDXはHDXカード1枚の構成で、オーディオ・インターフェースは汎用性を重視してHD I/Oを導入。ラフト所属の音響クリエイターである髙橋友樹氏は、「気をてらわずに、誰でも使用できるシンプルな構成を目指した」と語ります。

 

「コントロール・サーフェスに関してはコンパクトなS3を選定しました。複数のパラメーターを同時に触るような作業であれば、大型のコンソールの方がいいのかもしれませんが、このスタジオの規模であればS3がちょうどいいだろうと。プラグインに関しても、Waves PlatinumやiZotope Production Suite、Nugenといった基本的なものばかりで、どこでもファイルを開けるように、変わったものはインストールしていません。中でもよく使うのはiZotopeのRXとNugenで、今やRX無しではMA作業は成り立たなくなってますね。一方のNugenは、ラウドネスの監視/管理で使用していますが、最近は直接テープに戻すという作業が無くなっているので、ファイル・ベースで使うことが多いです。映像に関しては、Pro Toolsのビデオ・トラックで再生するのが基本になりますが、Video Satelliteでも再生できるようになっています。最近はMAが最終的な試写を兼ねることが増えているので、僕が作業するときはVideo Satelliteで再生することが多いですね」(髙橋氏)

作業の中心となるPro Tools | HDX

コントロール・サーフェスはコンパクトなS3を導入

各部屋のローカル・ストレージとしてはSSDまたはHDDのTB3RAID、共有サーバーとしてはSynologyの16TBのNASを使用しているというFK Studio。フロアには12G-SDIのネットワークが敷いてあり、社内のLANは10Gbps、インターネットは2GbpsのNURO Bizと高速なネットワーク環境が整備されているのも特徴です。

 

「最近はローカルのストレージがかなり高速ですし、マシン・スペックも高いですから、プアなネットワークを敷いてしまうと、そこがボトルネックになってしまうんです。インターネットの2Gbpsは、1Gbpsでシステム用とゲスト用を分けているので、来客が多くてもスピードが変化することはありません」(薗部氏)

 

「コロナ禍でクライアントが作業に立ち会えないパターンも増えているので、ネットワークが高速なのは助かっています。大きなデータでも一瞬でアップされますからね。これが初めての自社スタジオになるわけですが、イメージどおりと言うか、想像していた以上の仕上がりになったと大変満足しています。ここまでのスタジオを作るのはラフトさんの力無しにはできませんでした。これをいいきっかけにして、スタジオをさらに増やしていけたらいいですね」(内宮氏)

 

写真手前左から、株式会社富士巧芸社代表取締役の内宮健氏、
株式会社ラフト代表取締役/クリエイティブ・ディレクターの薗部健氏、
写真奥左からROCK ON PROの沢口耕太氏、株式会社富士巧芸社の洲脇陽平氏、
株式会社ラフトの髙橋友樹氏、ROCK ON PROの岡田詞朗氏

株式会社富士巧芸社
FUJIKOOGEI Inc.

Pro Toolsで成功する

業界トップのツールを使って、サウンドをパワーアップ。映画/テレビ用の音楽やサウンドの制作から、世界中のアーティスト、プロデューサー、ミキサーとのコラボレーションまで自由自在。




Avid S6とPro Tools | MTRXをフル活用し、イマーシブ・ミックスに取り組むエス・シー・アライアンス

Installed by

株式会社エス・シー・アライアンスの一部門であるライブデザイン社のスタジオセクションは、音響デザイン/音響空間デザインをプランニングから仕上げまで一貫して行うポストプロダクション・カンパニーです。東京・早稲田のビルにはミックス・スタジオ2部屋、サウンド・デザイン・ルーム2部屋を擁し、博覧会や展示館、プラネタリウムの音響デザイン/音響空間デザインなど、様々な業務を手がけています。

株式会社エス・シー・アライアンス ライブデザイン社のミックス・スタジオ

そんなライブデザイン社のスタジオセクションは今年、Avid S6とPro Tools | MTRXが導入されているミックス・スタジオを改修し、7.1.4chのイマーシブ・ミックスにも対応するスタジオへとリニューアルしました。同社所属のサウンド・エンジニアである山本雅之氏によれば、2018年にS6を導入した時点で既にイマーシブ・ミックスへの対応を見据えていたとのことです。

 

「弊社が手がけているコンテンツは、Dolby Atmos ®などのフォーマットに準拠しているものはそれほど多くないのですが、展示系やイベント系、プラネタリウムなど、ハイト・スピーカーを使用するものは結構あるんです。そういった仕事は、再生する場所や作品によってスピーカーの位置がバラバラなので、最終的にはサイト・ミックスを行う必要があるのですが、それでも事前にシミュレーションできるスタジオは絶対にあった方がいい。ですので何年も前からスタジオの改修を計画していたのですが、ようやく実現できるかなというタイミングでコロナになってしまって……。しかし何もしないで止まっていても仕方ないと思い、フロント・スピーカーとサラウンド・スピーカーは入れ替えずに、ハイト・スピーカーを4本追加する形で、7.1.4chのイマーシブ・ミックスに対応させました。チャンネル数に関しては22.2chを検討したこともあったのですが、とりあえず7.1.4chで始めてみようと。ハイト・スピーカーはGenelec 8351Bと8341Aで、Dolby Atmosの規格にできるだけ沿いながら、映像の邪魔にならない位置に設置してあります。このスタジオは、サラウンド・スピーカーの位置が高いので、本当はもっと高い位置に取り付けて、サラウンドとハイトの差を付けたかったんですけどね。設置位置に関しては、将来フロント・スピーカーとサラウンド・スピーカーを入れ替えるタイミングで見直そうと思っています」(山本氏)

株式会社エス・シー・アライアンスのサウンド・エンジニア 山本雅之氏

Genelec 8351Bと8341Aを追加することで、7.1.4chのイマーシブ・ミックスに対応

Dolby Atmos対応システム解説 : エス・シー・アライアンス “A Studio”

Dolby Atmosのレンダラーに関しては、HT-RMUの代わりにDolby Atmos Renderer専用のMacを使用し、Pro Tools | MTRXとMADIで接続。ストレスのないDolby Atmosマスタリング環境が構築されています。

 

「最初はPro Toolsと同じMacでDolby Atmos Rendererを使ってみたんですが、一世代前の旧Mac Proということもあり、たまにノイズがのってしまうことがあったんですよ。そのことをDolby Japan 様に相談したら、Dolby Atmos Renderer ソフトウェア自体をHT-RMU(Dolby Atmos Home用マスタリング機*)の要領で別のMacに逃してレンダリング処理を分散させることも可能だとの回答があり、Media Composer用として使っていた別のMacを流用することにしたんです。レンダラー用MacにはMADI搭載のオーディオ・インターフェースを繋いで、Pro Tools | MTRXとは2系統のMADIで合計128ch送れるようにして。そうしたらまったくストレスなく作業ができるようになりました。もちろんいくつかの付加機能を持っているHT-RMUを導入すればいい話なんですが、HT-RMUを急に購入することも難しいですし、このスタジオではTrinnovを使用していますから、HT-RMUの付加機能のひとつである音場補正機能は必要ありません。安価にDolby Atmosのマスタリング・システムが構築できて、とても満足しています」(山本氏)

マシン・ルーム

Pro Tools | MTRX

イマーシブ・ミックスに対応できる環境になった後も、作業の中心になるのはS6。山本氏は先頃リリースされたEUCON 2021.6ソフトウェア・アップデートによって、S6の操作性がさらに向上したと語ります。

 

「最近はマウスとキーボードだけでミックスしてしまう人も増えていますが、専用のコントロール・サーフェスがあった方が作業が早いですし格段にラクです。個人的にはコントロール・サーフェスが無いと作業できません(笑)。以前使用していたICON D-Controlシステムも良かったんですが、S6はオペレーションの自由度がさらに高くなり、とても気に入っています。何と言っても便利なのが『カスタム・フェーダー』で、トラック数が増えれば増えるほど、整理しながらミックスしていかなければならないので、『カスタム・フェーダー』が欠かせません。それとEUCON 2021.6ソフトウェア・アップデートで待望だった『カスタム・ノブ』が追加されたのも嬉しいですね。『カスタム・ノブ』は、サーフェス上のノブにプラグインのパラメーターを自由にマッピングできる機能で、これまでもノブでプラグインを操作することはできたんですが、レイアウトが固定で少し使いづらかったんですよ。しかし新しい『カスタム・ノブ』を使えば、ノブとノブの間隔を空けることもできますし、ICON D-ControlシステムのEQパネルのようにレイアウトすることもできる。これからぜひ使い込んでいきたい機能ですね」(山本氏)

スタジオの中心となる32フェーダー/5ノブのS6

スタジオ改修後、さまざまなコンテンツのイマーシブ・ミックスに取り組んでいるという山本氏。まだまだ種類は少ないものの、イマーシブ・ミックスに対応したユニークなプラグインも登場し始めていると語ります。

 

「仕事で使えるサラウンド対応オートパンナーをネットさがしていて見つけたんですが、Sound Particlesというメーカーがおもしろいプラグインをいくつも作っているんですよ。Energy Pannerは音の強さ、Brightness Pannerは音の明るさに合わせてパンニングしてくれるプラグインで、手動では書けない動きを作ってくれるので飛び道具的に使っています。それとThe Cargo CultというメーカーのSlapperとSpanner。Slapperは8タップのディレイで、タップごとにリバーブの量や定位などを自由に設定できるので、凄く使いでがあります。

Slapper

一方のSpannerは、基本的にはパンナーなんですが、7.1.2chで定位を作ってから、音像を狭めたり広げたりできるのが便利なんですよ。リバーブでよく使うのは、24chまで対応したExponential AudioのSymphony 3DやStratus 3Dで、Exponential Audioからはたくさんリバーブが出ていますが、その中でもSymphony 3Dはとても音楽的な響きがするリバーブという印象です。パラメーターも多く、かなり追い込んだ音作りができるので、イマーシブ・ミックスで一番よく使うリバーブですね。

Spanner

アップミックスが必要なときに活躍するのはNugen AudioのHalo Upmixです。5.1chや7.1chへのアップミックスならば、WavesのDTS Neural Surround UpMixが凄く好きなのですが、ハイト・スピーカーに対応していないので、現状イマーシブへのアップミックスはHalo Upmixがベストですね。イマーシブ・ミックスをしていて、“これが足りない”というのは特にないと思いますが、7.1.2chに対応したダイナミクス系のプラグインがもっと増えてくれると嬉しいです。あとはAudio Ease Altiverbのイマーシブ対応も期待したいですね」(山本氏)

 

少し前にはDolby Atmos Musicに準拠した音楽のイマーシブ・ミックスにもチャレンジしたという山本氏。これからも様々なコンテンツのイマーシブ・ミックスに取り組んでいきたいと語ります。

 

「音楽のイマーシブ・ミックスは凄くおもしろかったですね。映画であれば、映像に合わせたサウンド・デザインをしなければならないですし、ぼくが普段手がけているプラネタリウムの音響もいろいろな制限があるのですが、音楽のイマーシブ・ミックスにはそういう縛りがない。広い空間の中で、自由に音作りができるのがとても楽しいなと感じました。それとチャンネル数が多いからか、長時間聴いていても2chよりも聴きやすい感じがするのも発見でしたね。イマーシブ・ミックスは確かに時間はかかるんですけど、アイディア次第でいろいろなことができるので、とても大きな可能性を感じています。先ほどご紹介したプラグインのようなおもしろいツールも増えているので、これからも積極的に取り組んでいきたいですね」(山本氏)

山本氏とタックシステムの益子友成氏

Dolby Atmosは、Dolby Laboratoriesの登録商標です。

Avid S6

S6は、モジュール式設計であり、構成されたシステムを選択するか、または独自のシステムを構築することが可能です。




AvidPlayで Dolby Atmos® Music を配信する方法(Apple Music編)

AvidPlayが、Apple MusicでのDolby Atmos®トラック配信に対応しました!

2020年8月にTIDAL およびAmazon MusicでのDolby Atmos配信に対応以来、既に様々なジャンルで数多くのDolby Atmosトラックがディストリビューションされています。

そして今、そのサービスを、そのまま利用することで、Apple Music上でのDolby Atmosトラック配信にも対応致しました。これにより、全てのアーティスト、プロデューサー、レコードレーベルが、Dolby Atmosを新たにサポートしたApple Musicストリーミングサービスを利用し、自らのDolby Atmosフォーマット対応楽曲を簡単に配信することできるようになりました。

Dolby Atmos MusicとAvidPlayを利用する事で、インディーズのアーティストやレコードレーベルはイマーシブな音楽体験を自らのファンに提供でき、毎年無制限にシングルやアルバムを配信、そして著作権と収益を100パーセント保持したままファン層の拡大を図っていくことができます。

Apple MusicでのDolby Atmos配信に対応したAvidplayの設定画面

必要手順

  • Avid Linkのインストール
  • Dolby Atmos® Unlimited AvidPlay サブスクリプション (こちらから購入できます)
  • シングル/アルバムのステレオファイル
  • シングル/アルバムのDolby Atmos® ADMファイル
  • アルバムアートワーク(2000×2000 推奨)

 

ステップ1 :新しい楽曲のリリース情報を設定する

1. Avid Linkで、Productsタブ、またはプロフィール上のMy PortfolioからAvidPlayへアクセスします。

2. 右上のNew Release ボタンをクリックします。

3. Subscription Planから “Dolby Atmos® Unlimited” プランを選択します。

4. リリースがアルバムかシングルかを選択し、“Are you releasing Dolby Atmos® Music?” に 対し“Yes” を選択します。

5. リリースについての残りの情報を入力します。シングルをリリースする場合、“Enter Single or Album Name”に配信するトラックのファイル名と同じ名前を入力します。

ステップ2: アルバムアートワークをアップロードする

ステップ3:  ステレオトラックをアップロードする

1. ステレオトラックのアップロードを始めてください。ステレオファイルとDolby Atmos ADM ファイルのファイル名が同じである事を確認します。

2. アップロードが完了したら、リストからトラックをクリックしドラッグすることによって、任意の並び順に変える事ができます。楽曲が正しく再生されるかどうか最終チェックをしましょう。

ステップ4: Dolby Atmos® ADM トラックをアップロードする

1. ADMファイルをアップロードします。このプロセスが完了するにはファイルサイズやインターネットの接続状況によって数分かかる事があります。

ステップ5: トラックの詳細を入力する

1. 楽曲のタイトルを入力します。シングルの場合、Release Detailsタブにあるアルバム/シングルの名前と同じである必要があります。

2. Artist の欄には誰の楽曲をリリースするかを入力してください。

3. Genresのドロップダウンメニューからは、複数のジャンルを選択する事ができます。

4. コラボレーションの場合、そのアーティストを付け加えることもできます。

5. 各楽曲に自動的にISRC(国際標準レコーディングコード)が供給されます。既にISRCを持っている場合はそれを使う事ができますが、持っていない場合は供給されたものを使いましょう。

6. 楽曲がストリーミング可能な配信か、またはリスナーが購入した場合のみの配信かを決定します。Dolby Atmos®の楽曲はストリーミングのみ有効で、購入しダウンロードすることはできません。しかし、’For’ セクションからDownload を選択すると、ステレオファイルのバージョンはダウンロードや購入が可能になります。

7. 楽曲の言語を選択し、 Parental Advisory から過激な表現を含んでいるかそうでないかを入力します。

8. この楽曲はシングルトラックとしての配信なのか、フルアルバムの一部としての配信なのかを選択します。

9. ストリーミング時に表示される歌詞を加えます。

10. サービスのサブスクリプションを購入していないリスナーが、楽曲を購入する前に試聴できる様にするには、Preview ボタンを押しプレビューを設定します。

楽曲の参加者として、アーティストを設定し、他の共同制作者をリストアップします。特定の役割をタグ付けすることも可能です。また自動的に分割される利益も記載できます。もしあなたが別のアーティストの発信も行なっているのであれば、ここではあなた自身をレーベルとして設定する事もできます。

ステップ6: 配信したいストリーミング先を選択します

1. 現時点では、Amazon Music HD , TIDAL HiFiそしてApple Musicのストリーミングサービスが、Dolby Atmos® Musicをサポートしています。配信先を複数選択することや、どちらか一方にする事も選択可能です。

2.”全ての配信先へのディストリビューション”を選択した場合、Dolby Atmos®をサポートしていないストリーミングサービスにはステレオファイルが送られ、そのサービスのリスナーには、ステレオで楽曲を聴いてもらうことが可能となります。

3. Distributeをクリックし、楽曲がそのストリーミングサービスで聴けるようになるまで数日待ちます。

© 2021 AVID TECHNOLOGY, INC. ALL RIGHTS RESERVED. AVID、AVIDのロゴ、AVID EVERYWHERE、INEWS、INTERPLAY、ISIS、AIRSPEED、MEDIACENTRAL、MEDIA COMPOSER、AVID NEXIS、PRO TOOLS、SIBELIUSは、米国とその他の国またはそのいずれかにおけるAVID TECHNOLOGY, INC.またはその子会社の商標または登録商標です。「INTERPLAY」の名称は、INTERPLAY ENTERTAINMENT CORP.の許可に基づいて使用しています。INTERPLAY ENTERTAINMENT CORP.は、AVID製品に関していかなる責務も負いません。その他の商標はすべて、各社が所有権を有します。製品の機能、仕様、システム要件および販売形態は予告なく変更されることがあります。Dolby Atmosは、Dolby Laboratoriesの登録商標です。

AvidPlayで音楽配信

Spotify、YouTube Music、Anghami、その他世界中の多くの主要なストリーミングサービスで音楽を配信します。さらに、権利と利益を100%維持しましょう。




Dolby Atmos Musicでミックスするためのヒントとトリック

Dolby Atmos ®での音楽ミキシングについては、既にかなりの量のコンテンツが存在します。Music That Movesでダウンロードや検索ができるDolby Atmos Pro Toolsセッションのように、役立つ情報がたくさんあります。

 

このブログでは、それらとは少し趣向を変えて、いくつかの異なる側面から、Dolby Atmosでの音楽のミキシング時に便利なヒントとトリックを紹介したいと思います。これらは、私自身がAtmosミックスする際に気を付けるポイントではありますが、皆様にとっても役立つと嬉しく思います。また、曲のミキシングへのアプローチ方法を説明するビデオmix breakdownもありますので併せてご覧ください。

 

Dolby Atmos での音楽の配信に関しては、ストリーミングサービスで使用される2つの主要なデジタルオーディオ圧縮スキームがあります。EC-3とAC-4IMSです。多くのミックス・エンジニアや音楽プロデューサーは、これらに精通していないかもしれませんが、なぜ重要で、ミックスにどのように影響するかを知ることは良いことです。

 

技術的な詳細を省いて説明しますが、EC-3ファイル形式は主にスピーカーを使用した再生を目的としているフォーマットです。例えばAmazon EchoやBlu-rayプレイヤーはこれを使用しています。Dolby Atmosの再生用にApple Musicでも使用されています。バイノーラル再生がヘッドフォンが必要なのに対して、EC-3形式はスピーカーを介して再生することを目的としているため、ミキシング時に埋め込むバイノーラル情報は考慮されていません。ここでの例外はEC-3がiPhoneで再生される場合です。この場合、Appleは独自のカスタム空間化技術を使用して、承認されたヘッドフォンもしくはiPhoneスピーカーを介してAtmosコンテンツがApple空間オーディオとして再生できるよう配信しています。

 

AC-4はAndroidスマートフォンで再生されるTIDAL、Hungama、 Anghamiなどのサービスで使用されます。この形式はミキシング時に埋め込むバイノーラル・メタデータを利用します。

 

バイノーラル・フォーマットを前提に、ミキシング時に私が用いる、いくつかのヒントとトリックを見ていきましょう。

1. 私の場合、Atmosミックスを既存のステレオ・ミックスのように扱うのに、最初は時間がかかりました。従来のミキシングにおけるマスタリングでは、ステレオ・ワイドナーやハーモニック・プロセッシングを使用するのが一般的ですが、Atmosでのミキシングにおいて、これらのテクニックは機能しません。ステレオ・バージョンで既にリリースされた曲をミキシングする場合、バイノーラルは空間的に正確であるもののパンチが不足していると感じることがあるでしょう。その事こそが、どのオブジェクトを、バイノーラル・ポジショニングを有効または無効にするかを考える必要がある理由です。また、有効にする場合でも、その距離を明確に定義する必要があります。正しく設定すれば、バイノーラル・バージョンは本当に没入感があり、ステレオバージョンよりもはるかに優れたリスニング体験が得られます。

 

2. ミキシングを始める際、そして  Dolby Atmos Rendererでマスターファイルを作成する前段階で、セッション上の全てのオブジェクトを有効にしておくと良いでしょう。プロジェクトにもよりますが、私は通常少なくとも64のオブジェクトを有効にするようにしています。一度マスターを作成すると、追加のオブジェクトを作成した際に、それが用意されていないと、同じファイルにパンチ・インすることができないためです。そういった必要性が生じた時のために、予め備えておくのです。

 

3. Pro ToolsのDolby Atmos バイノーラル設定プラグインを使用します。これは重要な作業です。私の場合は、トラック・プリセットの一部としてタイムコード・トラックを作成し、1つ目のインサートにはバイノーラル設定プラグインをアサインし、2つ目にはDolby タイムコード・プラグインをインサートしています。

4. 空間が感じられるように、バイノーラル配置のnear、mid、farの設定をクリエイティブに行います。これにより周波数スペクトラルが変化しますが、うまく使用すればクリアな効果が得られます。

 

5. センター・パス上の要素はバイノーラル効果との関連はありません。そのため、ルームの中心で音をパンしても、バイノーラル効果は得られません。

 

6. Atmosミックスをしているとパンを固定する事は避けたいと思うかもしれません。少しでも動きがあれば、ミックスが生き生きとするように感じるからです。私の場合、そういった時は、パンをフェーダーに切り替え、ランダムに少し動かします。テンポに合わせるため、オート・グラインド・タイム(設定>ミキシング)を設定することもあります。すると、フェーダー(パン)がランダムに操作されても、音楽に合わせて戻ってきます。ランダムさに心が惹かれる事もあるかもしれませんが、テンポに合わせて戻ってくることで、ミックスがうまくまとまる事が多いはずです。

 

7. ステレオ用のM/S(Mid/Sides)マスタリングを行う必要はありませんが、音の配置とバイノーラルの遠近の操作という、より強力な方法で広さや幅を決める事ができます。

 

8. オーバーヘッドの配置は控えめにした方が良いでしょう。同じ平面上であっても、変化がなく、要素が多すぎる場合、わずかなフェーズや音色の変化は認識されません。同時に、バイノーラルには絶対的な左右がないことを忘れないでください。バイノーラル・ミックスがクリッピングしないようにこの点に気をつけてください。

 

9. 配置する際、周波数を考慮してください。低周波数を高い位置に配置させるのは、滅多に機能しません。周波数を分割し、別々にパンするのは良い考えです。この配置方法に、私はAvid Pro Multiband Splitterをよく使用します。これにより、Low、Low Mids、High Mids、Highsなどの異なるフリークエンシーの範囲を様々なAuxに置き、空間の中で別々にそれぞれのAuxをパンできます。Pro MultibandはAux出力ステム(Auxiliary Output Stems)をサポートしています。これにより、異なる周波数バンドを個々の出力としてAuxインプットに送ることができるのです。

10. クリエイティブなパンをするには3つのステレオトラックを使用します。それぞれのトラックをNear、Mid、Farに設定します。これらのトラック間にまたがる形で編集することにより、1つの要素をバイノーラル・ポジション内のNearからMidへ、そしてFarへ動かすことができます(バイノーラルの距離設定はオートメーションできません)。これによりミックスが散漫になるのを防ぐことができます。

11. バイノーラル・ミックスでは、絶対的な左右の位置は存在しません。左寄り、右寄り、という感じです。注意しないと、ミックスの中心部分もしくはステレオトラックが過負荷になり、それゆえにミックスの幅が狭くなる可能性があります。バイノーラル処理を割り当てる(または割り当てない)ことに関して、創造的な工夫をしてみましょう。それにより、ステレオ・ミックスを超えた深みを作成できます。

 

12. ミックスが完了したら、マスタリング用にADMをエクスポートします。次に、新しいセッションを作成し、このADMファイルをインポートし、ステレオ・ミックスのマスタリングに近づくように、必要であれば微調整します。このマスターでラウドネス仕様と音色補正を調整します。アルバムまたはEPをミックスし、曲全体で一貫したレベルを保つのに役立ちます。全ての曲のトラック数が同じになるように、ベッドとオブジェクトの数が同じに揃えています。私の場合、この時点で、バイノーラルでのチェックを行います。

13. 上記のADMマスターを読み込んだPro Toolsセッションを[名前をつけて保存]し、Dolby Rendererのモニターをステレオ・デリバリーを行うためのステレオ・モードに設定します。ここで新しいセッションを使用して、ステレオでパンとレベルを確認します。バイノーラルからステレオに切り替えた時、低音、中低音、パンのレベルを確認することをお勧めします。オブジェクトがバイノーラル・レンダリング内のMidもしくはFarに設定されている場合、それを反映するために、モニターでロー・エンドが変更されている可能性があります。そのため、ステレオに切り替える際、EQの微調整が必要になります。サラウンドに定位したパンがある場合、それらを一度聴いてみることをお勧めします。そういったサウンドは、ステレオ・ミックスではレベルが大幅に低下する場合があります。そうして調整したADMをステレオADMと呼ばれる中間バージョンとしてエクスポートし、レンダラーにインポートして、ステレオ・リ・レンダリングして出力します。RMUもしくはRMWを使用している場合は、同時にステレオ・ダウンミックスを録音できるため、この手順を行う必要はありません。

 

14. 私はベッズでのバイノーラルを無効にした状態をデフォルトにしています。デフォルトのMidモードに比べて、パンチと調性がより増えているように思います。但し、これは個人的な好みです。

15. ADMをセッションにインポートする際、次の手順を行います:

  1.  I/O設定で全てのベッズと出力を削除してからインポートします
  2.  レンダリングがADMと同じ入力配置になっているか確認します。そうでない場合、および外部ADMをマスターへ送る場合、まずレンダリングをインポートして、入力設定を行います。
  3.  Pro ToolsにADMをインポートします。そうすると、マッピングが自動的に処理されます。

 

16. 私の場合、ミックスの最終段階で、最初のベッドをVOXベッドに設定し、次にVox Obj(オブジェクト)、そしてMusic Bed、最後に残りをMusic Objに設定します。こうすると、マスタリングされたADM自体からマイナス・トラックをエクスポートすることが容易に行えるようになります。

17. サラウンドに要素を追加すると、包み込まれるようなミックスが行えるだけでなく、ラウドネス仕様の範囲内にとどまることにも役立ちます。フロントの負荷を軽減させ、空間的な配置を感じやすくなるという利点もあります。

 

18. ステレオ(2.0)ダウンミックスでは、個人的に、90度の位相のLtRtがサラウンド・ミックスを表現するのに一番近いように聴こえます。

19. 音楽でスピーカー・スナップを使用することに関して、とても気をつけています。映画用のミックス環境でスピーカー・スナップを使用することは大好きですが、音楽の場合、複数の音像の相関によりジッターが派生する可能性があります。そのため、どうしても必要で、その空間が他のオブジェクトと衝突しない限り、スピーカー・スナップは避けます。サイズも同じです。私はサイズを大きくすることにとても注意しており、通常15〜18を超えることはありません。これはサイズがもたらす非相関がいくつかのフェーズの問題を起こす可能性があるためです。

 

20. オブジェクトにヘッドルームをたくさん残すようにしています。そうするとオブジェクトが複数同時に重なった場合でも、ピークが高くなりすぎません。Atmosミックスが-18 LUFSが到達した場合、ヘッドルームの設定を行う必要がありますが、TIDALステレオは-14 LKFSで、-18 LKFS Atmosミックスのバイノーラル・バージョンは-16 LKFSのため、個人的にはそのままにしています。Atmosミックスがステレオ・ミックスに対して再生される場合、2 dBのラウドネス・ロスが発生します。このため、通常はリミッターをベッズにのみに設定しています。オブジェクトに一時的な要素がある場合は、そこでリミッターを使用しますが、滅多にそうすることはありません。

 

21. LCR空間を強力に保ちながら、他の要素を動かし続けるのが好きです。簡単な方法は、バランスが取れたらオブジェクトのF/Rパンをフェーダーにフリップし、少しランダムに操作ことです。すると、ミックスは常に呼吸をし、動き、ミックスに躍動感を与える事ができます。

 

22. 最後に、私はDolby Atmos Music Pannerの大ファンです。同じトラック上のオブジェクト・パン・データとして記録することで、Music PannerからPro Tools パンへパン・データを変換します。特にプラグインでCPUの問題が発生し始めた際に、Pro Tools オフラインADM エクスポート機能はとても役立ちます。

Dolby Atmosは、Dolby Laboratoriesの登録商標です。

MUSIC THAT MOVES

Dolby Atmosが伝える変革するサウンド・クリエイションの世界。Pro Toolsが伝える変革するサウンドプロダクションとミキシング方法。イマーシブ・ミキシングのための最も強力で拡張可能なエンド・ツー・エンドのツールセットを、ぜひ体験してみてください。




Avid S6導入事例 #35:TOHOスタジオ MAルーム

Installed by

東京・成城のTOHOスタジオは、1932年(昭和7年)に開設された日本を代表する撮影スタジオです。約24,000坪という広大な敷地に10棟もの撮影用ステージを擁し、黒澤明監督の『七人の侍』や『影武者』、『ゴジラ』シリーズなど、映画史に残る数々の名作がこのスタジオから生み出されました。同スタジオは2003年からポストプロダクション施設の大規模な改修を開始し、2010年には国内最大規模のダビングステージを擁する『ポストプロダクションセンター1』を新設。翌年には旧棟である『ポストプロダクションセンター2』もリニューアル・オープンしました。

2010年に開設されたTOHOスタジオの『ポストプロダクションセンター1』(東京・成城)

そんなTOHOスタジオは今年、『ポストプロダクションセンター1』内にDolby Atmos®に対応したMAルームを新設。TOHOスタジオ ポストプロセンター ポストプロ部 ポストプロ課長の早川文人氏によれば、同スタジオが純粋なMAルームを開設するのはこれが初とのことです。

 

「MAルームを造るという構想は、実は以前からあったのですが、なかなか実現までには至りませんした。しかし最近、撮影所の方は動画配信サービスの仕事が増えてきて、いくつかのステージはNetflixと年間賃貸契約を締結したんです。そういう仕事をポストプロダクションセンターでも受けられる体制を整えたいと考え、今回ようやくMAルームを開設する運びになりました。ここは以前、小試写室として使っていた部屋で、稼働率がそれほど高くなく、他にMAルームを造れそうなスペースがありませんでしたから、真っ先にここが候補に上がったんです」(早川氏)

新たに開設されたMAルーム。MAに特化した部屋はこれがTOHOスタジオ初となるという

Dolby Atmos(9.1.6.ch)に対応。ハードウェア・レンダラーのRMUも常設されている

TOHOスタジオ ポストプロ部 シニアテクニカルマネージャーの竹島直登氏は、「4K HDR対応のモニターの導入とDolby Atmosへの対応、この2つがMAルームのコンセプトでした」と語ります。

 

「ダビングステージをDolby Atmosに対応させるという計画もあるのですが、もの凄く大がかりな改修になりますから、新設のMAルームは絶対にDolby Atmosに対応させたいと考えました。Netflixも対応していなければ認証できないという話でしたし、Dolby Atmosというフォーマットには、個人的にも魅力を感じています。大きく音を動かすというより、縦方向で空間を作ることができるので、平面にあるスピーカーだけでは難しい“包まれ感”を表現できるのが魅力ですね。チャンネル数に関しては、最初9.1.6chという話も出たのですが、部屋の大きさ的に9.1.4chの方がいいだろうと判断しました。ちょうどこのスタジオを工事しているときに、Netflixの技術担当者が日本に滞在していたのでスピーカーの構成について訊いてみたのですが、“その大きさなら9.1.4chでまったく問題ない”と言ってくださってホッとしましたね。それとこの部屋は、Dolby LaboratoriesのRMUが入っているというのもポイントです。過去にDolby Atmos Production Suiteを使ったこともあるのですが、コンピューターにかなり負荷がかかりますし、オブジェクトが増えると動作が不安定になることがあるんです。RMUですと、そういった負荷を気にせずにリアルタイムに処理できますし、複数のワークステーションを接続できるというのも大きいですね」(竹島氏)

24フェーダー/5ノブのAvid S6と3式のPro Tools | HDXを導入

そしてMAルームの中核として導入されたのが、5ノブ/24フェーダーのAvid S6です。竹島氏は、「Dolby Atmos対応のMAルームに合うコンソールとなると、S6以外の選択肢は無かった」と語ります。

 

「最終的にPro Toolsがマスターになるので、MAのシステムとして、できるだけPro Toolsの中で完結しておきたいというのがありました。作業はこの部屋の中で完結するわけですが、最悪の事態を想定して、この部屋の続きを他のスタジオでもできるようにしておきたい。加えて価格やメンテナンス性を考えると、他に選択肢が無く、S6一択でした。中央にPro Toolsのディスプレイを置いて、フェーダーを左側に8本、右側に16本というレイアウトにしたのは、映画では2マンでの作業が基本になるからです。ただ、ウチの場合は映画の音響スタッフがそのままMAも手がけるパターンが多くなるのですが、スタッフたちからは早くも24フェーダーでは足りないと言われています(笑)。なので将来的にはフェーダー数を拡張する可能性もありますね。フェーダー数を後から拡張できたり、レイアウトを自由に変えられるという自由度の高さは、S6の大きな魅力なのではないかと思っています」(竹島氏)

 

S6は、Pro Toolsのモニター・ディスプレイを中心に、
左側に8本のフェーダー、右側に16本のフェーダーを配したレイアウトを採用

Pro Tools | HDXは、ダイアログ/音楽の再生用、SEの再生用、ダビング用の3式がSatellite Linkで同期され、大規模なセッションにも対応できるようにHDXカードはすべて2枚装着。オーディオ・インターフェースは1台のPro Tools | MTRXを3式のPro Tools | HDXで共有するセットアップが採用され、Pro Tools | MTRXはPro Toolsの台数分のDigiLink I/Oカード、Dolby Laboratories RMUを接続するためのデュアルMADI I/Oカード、Trinnov Audio MC 16を接続するためのAES3I/Oカード、外部入力用の8 Mic/Line Pristine ADカードが装着された、空きスロットの無いフル仕様になっています。

 

「3式のPro ToolsとPro Tools | MTRXは、それぞれDigiLinkが2系統繋がっているので、128chのオーディオを送受信できます。Pro Tools | MTRXは、内部でルーティングを自由にパッチできるため、状況に応じて各Pro Toolsの役割をフレキシブルに変えられるのが便利ですね。たまに作曲家さんが来られたときに、“手持ちのDAWから直接音を出したい”というリクエストがあったりするので、外部入力用にHD I/Oも1台残してあります。映像に関しては、このスタジオでは1台のMacの中でビデオまで扱ってしまうのがベストかなと思っているので、現時点ではPro Toolsのビデオ・トラックを使って再生しています」(竹島氏)

 

マシン・ルームに設置されたPro Tools | HDX用のMac Pro

オーディオ・インターフェースは、
1台のPro Tools | MTRXを3式のPro Tools | HDXで共有

2020年12月に工事が完了し、2021年1月から運用を開始したというTOHOスタジオ初のMAルーム。Netflixの話題作『全裸監督 シーズン2』のMAもすべてこのスタジオで行われたとのことで、竹島氏は「イメージしていた以上のスタジオが完成し、作業がとてもやりやすい」と語ります。

 

「S6のフェーダーは昔のデジタル・コンソールと比べると軽めなのですが、もの凄く素直に付いてくるという印象があります。何と言っても良いのはディスプレイ・モジュールで、波形表示がとても便利ですね。昔のデジタル・コンソールですと、一度データを読み込ませないと波形表示はできなかったのですが、S6はPro Tools上の波形がリアルタイムに表示される。きっかけが目で掴めるのでとてもミックスしやすいんです。また、監督によっては映像の上にタイムコードなどのキャラクターを載せないでほしいという方もいるんですが、そんなときもディスプレイ・モジュールがあれば問題なくフェーダーを触ることができる。Pro Tools | MTRXに関しては、膨大なチャンネルを扱っても音のセパレーションが良く、オーデォオ・インターフェースとして凄く優秀だなと思いました。音の解像度がとにかく高いですね」(竹島氏)

 

「S6とPro Tools | MTRXの組み合わせですべてが完結してしまうわけですから、これはAvidのシステムの大きな魅力だと思います。関係会社の皆さんのご協力のおかげで、いろいろなコンテンツに対応できるスタジオに仕上がったと思いますので、多くの方に使っていただきたいですね。映画、ドラマだけでなく、音楽コンテンツやゲーム・コンテンツ、さらにイベント関係など、イマーシブ・オーディオを利用できる可能性があるコンテンツなど、様々な作品でご利用いただければと思います。ぜひお問い合わせいただければ幸いです」(早川氏)

 

向かって右から、TOHOスタジオ ポストプロセンター ポストプロ部 ポストプロ課長の早川文人氏、
同ポストプロ部 シニアテクニカルマネージャーの竹島直登氏、タックシステムの小野隆氏

TOHOスタジオ株式会社
(TOHO Studios Co., Ltd.)

Dolby Atmosは、Dolby Laboratoriesの登録商標です。

Avid S6

S6は、モジュール式設計であり、構成されたシステムを選択するか、または独自のシステムを構築することが可能です。




限界なんてない:Dolby Atmos でリリースした ティファニー・ツイステッドのデビュー EP

個人的なレコーディングプロジェクトとしてティファニー・ツイステッド(Tiffany Twisted)を結成しました。初めはライブステージをするつもりはなかったのですが、ギターリストのアダムと私が出会い、音楽を一緒に奏でて初めて、バンドの未来像が見えました。それは、一緒に作り上げたバンドで見つけた同じ癒しを人々に与えられる何かを作ることです。

まず試しに、デュオとしてロンドン周辺で飛び入り参加できるライブで演奏をし始めました。最終的に大きなコンサート会場でブッキングが入り、フルバンドが必要となりました。その年、2019年にティファニー・ツイステッドは4人組編成のバンドになりました。

その後数ヶ月間、私たちはロンドン中で演奏し、トルバドゥール(The Troubadour)のようないくつかの伝説的なロックの聖地でも演奏しました。残念ながら、これらの会場の多くがパンデミック以降閉鎖されてしまったので、それらの会場で演奏できたことはとてもありがたいです。良いショーもあればひどいショーもありました。ロンドン東部で一度演奏したクラブでは、2曲演奏した後電源が落とされ、次のDJのショーを始めたいがために、私たちを追い出そうとしたのです。私は怒り狂ってスピーカーを蹴り飛ばし、爪先を骨折しました。一方アダムは、警備員が彼を追い出すまでステージ上で暴れ続けていました。当然のことですが生涯出入り禁止になり、プロモーターは私たちのお金を持って逃げてしまいました。

アビーロードへの道

この間、独立系スタートアップ・レーベルが、SoundCloudに載せていた私たちのいくつかの昔のトラックを聴いて、5トラックのEPの契約をオファーしてきたのは、ちょうどその頃です。サインしてから1ヶ月以内に、アビーロードスタジオでEPをレコーディングする計画であることが明らかになりました。

そのレーベルから突然電話がかかってきました。私たちが聞いた言葉はとてもシンプルなものでした。「アビーロードでEPをレコーディングしませんか?」

もちろん、私たちはイエスと言いました。

しかし、次の質問に答える準備はできていませんでした。「Dolby Atmos®︎でどのようにレコーディングしますか?」

2019年のクリスマス休暇が始まるころ、1月までにレコーディングする可能性があると言われたので、4週間足らずでデビューEPを書き、音楽歴史上最も印象的なスタジオで、ライブをレコーディングする準備をしました。

 

曲ができるまで

ティファニー・ツイステッドの曲は、いつも私とアダムが一緒になって、新しいリフやメロディーを納得いくまで試しながら作り上げます。歌詞はいつもその後に、私一人きりで書いています。

アビーロードでレコーディングするという知らせが届くほんの数週間前、アダムは座ってギターをかき鳴らして、私はアダムの家の外でその日40本目のタバコを吸っていました。窓から、その後『ソールド・マイ・ソウル』となるリフが聞こえてきて、私はタバコを消して、「それ!それが次のシングル曲よ!」と叫びました。

楽譜上は、シングルとして選ぶには割と奇抜な曲です。Aメロはスタッカートの7/8フィールで、複雑に聴こえるかもしれませんが、私たちにはとても馴染むのです。アコースティックで作曲すると、ありのままに曲を作れるので、とてもいいと思います。もし何か良いものがあれば、すぐにわかりますしね。

もちろん、いつもどんなふうになるかわかっている訳ではありません。その時は、スタジオ用にプロフェッショナルなデモを完全に準備する時間やリソースがなく、とても視覚的なプロセスである必要がありました。まだはっきりとできず、映画のワンシーンを見て、それにあうサウンドトラックを想像するようなものでした。私たちは互いにそれを説明しあい、マインドスペースに入ります。トラックのビジョンに同意すると、とてもスピリチュアルな体験になります。何かがカチッと音を立て、エネルギーが変化したのを感じることができます。

一緒に居ると、よくこの体験が起こります。アダムがギターで何か私の注意を引くようなものを弾くと、メロディーと詞が生まれる不思議な瞬間が訪れます。すると突然、半分瞑想にふけった状態で私たちは曲を演奏するのです。

Dolby Atmosへの移行

これが、私たちにとってAtmosがレコーディングに最適な理由です。ロックバンドにとっては型破りな選択のように思えるものの、このアプローチにより、結果的にこのビジョンを実現するものを作ることができました。なぜなら、ミックスにおいてできることの限界がないからです。これらのトラックでの最終的なAtmosの経験は、純粋に没入感が得られるため、私たちが曲を作り始めたシーンに足を踏み入れたようなものになると確信していました。Dolbyは音楽を突然生き生きとさせ、その胸の中に踏み込みたくなるでしょう!

アコースティックのアプローチからAtmosでフル・ライブ・バンドを録音するのは、とても大きな跳躍です。最初のアコースティック・ソングライティング・セッションで種をまいていると、アダムと私がバンドと音楽を共有し、レイヤーが形作られ始めます。バンド編成のライブで曲を演奏するとすぐに、いつも曲が一変します。ジャックのドラムのビートはセクションを変貌させ、曲をより良くします。これは確かに『ソールド・マイ・ソウル』でも起こりました。私たちは当初、コーラス全体をハーフタイム・フィールにするつもりでしたが、スタジオでレコーディングする数日前にジャックと演奏して、リリースされるこのバージョンに変わりました。コーラスの前半はダブルタイムで始まり、その後スロー・ハーフタイム・グルーブに変わります。このコントラストがコーラスをとても高揚させます。

 

スタジオにて

私たちは、スタジオ 3で、ライブ形式で曲をレコーディングしたので、4人が一つの部屋に入って、昔ながらのやり方でトラックの本体を具体化できることが重要でした。ありのままの尖った音を、Atmosレイヤーのトラックの中心となる部分にどうしても置きたかったので、その音を一番上に追加しました。

これらの曲をレコーディングした時のことを思い返すと笑えてしまいます。お気に入りのギターのフレーズや、ボーカルの全てのハーモニーは、実際には最終日にオーバーダビングされた即興演奏だからです。

アビーロードにてギターを弾くアダム

レコーディング2日目、バンドが『ウェン・ウィー・アー・ナッシング』のレコーディングを終わりかけていた頃、アダムが遅れてやってきました。ライブルームに入って録音ボタンを押し、ギターを弾いてみて、何が起こるかみてみてもいいか、とアダムは全員に聞きました。そのトラックのすべてのリードギターのラインは、その時の即興テイクのものです。私の最初のボーカルのラインの後、木琴のように聞こえるぎこちないハーモニック・メロディーがあります。アダムは実際のところ、予定していなかったにもかからず、こんなにも上手く行ったことに少しショックを受けていました。
−−−これはいつでも起こるわけではありません!もちろん、アビーロードが持つ大きなエネルギーのおかげです。−−−
どういうわけか、音楽の中にさらに引き込むエネルギーであり、あなたの中にある才能の部分を感じることができます。

アビーロードスタジオのコントロールルームにて

『スピーキング・イン・タングス』のソロも同じようにして生まれました。マイクがオンになっている間、スタジオでギブソンのレスポールをかき鳴らしていただけです。私が歌っているとき、最後のコーラスにソロがあることはわかっていましたが、それ以上のことは計画していませんでした。その瞬間アダムは、ヴァン・ヘイレンのことを想い、絶対的な偉大な人物のうちの一人への謝罪なきオマージュとして、ヴァンのライトハンド奏法で演奏しました。アダムが確実に知っていたことは、このトラックのトーンを『マスター・オブ・パペッツ』のカーク・ハメットのギターのトーンに似せることでした。彼はエンジニアのクリス・ボルスターにその音が出せるかどうか聞くと、クリスは数日前にカークと仕事をしていたので完全にそのトーンはカバーできている、と笑って言いました。とても非現実的な瞬間でした。クリスは最終のミックスでとても大切な役割を果たし、私たちのビジョンを実現するために、それ以上のことをしてくれました。ありがとう、クリス!

しかしながら、リードギターのレイヤーを含む『ウェン・ウィー・アー・ナッシング』のコーダの部分は、特にAtmosのことを考えながら書いた一例で、期待を裏切りませんでした。『オーバードーズ』はアビーロード内で命を吹き込まれたもう一つのトラックです。パート間の対話のような感覚にしたいと考えており、特にボーカルとギターは、呼吸をするように耳元へパンでイン・アウトをさせたいと思っていました。Atmosはそれを実現することができました。テクノロジーは、リスナーに特別な感情的次元を加え、アーティストに創造的な自由を与えることができるようです。美しい組み合わせです。各セクションには独立した独自の命が吹き込まれており、Atmosミックスを聴きかえすと、ギターとボーカルのラインが身体にものすごく響き渡ります。

AvidPlayでデビューEPをリリース

Atmosミックスは、レーベルがリリースを完成させることができなかったため、アビーロードでレコーディング後、何ヶ月もの間、実際には私のベッドの横のハードドライブに入ったままでした。私たちはその後すぐにそのレーベルから離れることになり、インディーズ・アーティストとして身を置くことにしたので、Atmos EPをリリースする方法がなくなりました。このミックスを聞いてもらえる可能性を探るために多くの時間を費やし、リリースについてすでにDolbyと連絡を取り合っていたので、新しい配信プラットフォームであるAvidPlayに参加するために、幸運にもAvidと連絡をとることができました。AvidPlayは私たちのようなインディーズ・アーティストにとって本当にありがたい存在で、このようなプロジェクトを実行するために、メジャー・レーベルの支援なしに曲をリリースできる機会を平等にしました。これは業界にとって大きな前進であり、最近では非常に多くのインディーズ・アーティストがメインストリームで成功を収めています。

Avid Linkを使ってAvidPlayで配信するのは簡単です。
プラットフォームのリリース前に、Atmosの複雑なエンコードを見て最初は心配していました。私たちのEP1周年を迎えるにあたり、Dolby Atmosでリリースすることを楽しみにしています。私たちが作成したのを楽しんだのと同じくらい、皆さんも聴いて楽しんで欲しいです。

 

●ティファニー・ツイステッド:

アダム・デイヴィス – ギター
ヘッチ・ハーパー – ボーカル
ジャック・フランシス – ドラム
ハリー・パイク – ベース

●ティファニー・ツイステッドをフォローする:

https://www.instagram.com/tif_twisted/
https://www.facebook.com/tiftwistedband/
https://twitter.com/tiftwistedband

MUSIC THAT MOVES

Dolby Atmosが伝える変革するサウンド・クリエイションの世界。Pro Toolsが伝える変革するサウンドプロダクションとミキシング方法。イマーシブ・ミキシングのための最も強力で拡張可能なエンド・ツー・エンドのツールセットを、ぜひ体験してみてください。




リ・レコーディング・ミキサー”ジョナサン・ウェールズ”による、HDX用ハイブリッド・エンジンの革新性に関する考察

受賞歴のあるリ・レコーディング・ミキサーのジョナサン・ウェールズは、数十年にも渡って『ゲット・アウト』、『レディー・ガガ:Five Foot Two』、『ザ・ホーンティング・オブ・ヒルハウス』を含む、数多くの映画や、テレビ番組、ドキュメンタリーの音に命を吹き込んできました。彼のサウンド・ミキシングのキャリアを通して、90年代半ばからPro Tools III NuBusを使用、最近ではPro Tools | HDXを使って、Pro ToolsのDSPベースのシステムを使用してきました。

 

特にDolby Atmos®の出現により、セッションで使用するトラック数とボイス数がここ数年間で急増し始めたとき、HDXシステムがミキシング・パワーをDSPに依存することが問題になりつつあることに気づきました。それからは、DSPを使い果たさないように、ミキシングのアプローチにおいてより計画的にDSPを使うようになりました。

 

同じ問題は、彼だけではなく、Avidカスタマー・アソシエーション(ACA)の音楽やオーディオ・ポストに関わる他のメンバーも感じていました。そのため、年に4回あるACAミーティングのうちの一つで、彼とオーディオ委員会はそのことについて話し合いを持ちました。

 ウェールズ、パンデミックの間はホームスタジオで作業
(普段はワーナー・ブラザーズ・スタジオでミックスする)

シンプルな質問がゲーム・チェンジ・イノベーションにつながる

「数年前、私たちはAvidに『HDXのDSPをオーディオ・ミキサーの役割から外す必要がある』と伝えました。」と彼は説明します。「なぜかと言うと、HDXでDSPを使って作業するこれまでのやり方では、全てのミキサーパス、つまり全てのバス、センド、セッションの構造に関係する全てをDSPで処理する必要があったためです。以前の私のセッションの一つを例に挙げると、ミキサーはDSPでいっぱいになっていたため、プラグイン処理をする余裕がほとんどありませんでした。Atmosでは、バスの多くは10チャンネル幅です。これらのフォーマットタイプにより、ミキサーモデルはDSPに適合するのがより難しくなってきていたのです。」

 

当時Avidは、ソフトウェア上でオンデマンドのネイティブとDSPモード間のトラックの切り替えができる新しいPro Toolsのイノベーションに取り組んでいました。最終的にDSPチップを消費せずに、HDXのオーディオ・ミキサーをネイティブで実行できるようになるという方法です。ウェールズと委員会は興奮しました。

 

これが新たに特許を取得したPro Tools | HDX用のハイブリッド・エンジンが生まれた経緯です。テクノロジーにより、最大規模のミックスを処理できるネイティブパワーと超低レイテンシーのレコーディング用のDSPの両方の利点を生かす事ができるようになりました。ウェールズはその初期の段階からテストしてきました。「これが私の欲していたものだとすぐにわかりました。」と彼ははっきり言い切ります。「文字通り、Pro Tools が生まれ変わったのです!より高速で、以前よりもミキサー規模の拡張に対応でき、応答性が高くなっています。」

ハイブリッド・エンジンの素晴らしさ

追加されたメリットについて、他のHDXユーザーが理解しやすいように、ウェールズはこのように説明します。「通常のHDXでは、DPSプラグインを使用しているトラック上またはAux上でネイティブ・プラグインを使うと、DSPをオン・オフするたびに余分なボイスを使用します。その状況下で、5.1Auxを使用し、5.1ネイティブ ・プラグインを1つ追加すると、突然6つのボイスを消費してしまいます。セッション内で多数のパスによって使用するボイス数が増えるのは、ペナルティーのようなものです。」

 

「自分のミックスの仕方で、HDX3で700ボイスを使うセッションがあるとすると、ハイブリッド・エンジンでは、なんと380ボイスだけの使用に留まりました。『すごい!このセッションをもっと大きくできる!』という気持ちになります。」実際、彼はそのセッションを「さらに大きくしたのに、まだ全てうまくいく!」状態を維持できたのです。

「パフォーマンスは別次元のものになりました。必要時にHDXの全てのメリットを備えた、ネイティブ処理のパワーと柔軟性を、いつでも使用できるのです。」

HDXハイブリッド・エンジンでは、プラグインのラウンド・トリップも減らせるため、システム・ディレイを大幅に減少させます。「プラグインを行き来させるたび、バッファーサイズが毎回追加されるため、システム・ディレイも増加します。」と彼は説明します。「つまり、700ボイス使用のセッションが単に380ボイス使用に下がっただけでなく、そのシステム・ディレイ値も8,600サンプルから4,000サンプルに半減したのです。フェーダーを動かしてどこかのレベルを上げると、システム・ディレイによって聴こえるまでの時間が変わるので、これが大きいと問題です。4,000サンプルであれば、約2フレームですので、ほとんど気になりません。これにより、全てがより繋がっているように感じます。

 

セッションを開いたり、ルーティングを変更したりする単純なタスクにおいても、タイムラグがないことにもウェールズは気づきました。特にフルサイズのセッションでは、DSP割り当てを最適化するためのタイムラグも減少します。「パフォーマンスは別次元にあります。」と彼は断言します。「大規模なI/Oや、フレーム・エッジ・シンク、オンデマンドの高パフォーマンスDSPなど、必要な時にHDXの全てのメリットを備えた、ネイティブ処理のパワーと柔軟性を使用できるのです。

ミュージック・プロデューサーとしてキャリアをスタートしたとき、ウェールズは90年代半ばに映画のプロジェクトに関わりました。「待って、これはかっこいい」と思い、過去を振り返りませんでした。

全てのHDXユーザーが知っておくべきこと

全体として、ウェールズとオーディオコミュニティが貢献したイノベーションをAvidがどのように実現させたかを思うと、彼の気持ちは高揚します。「長い間、それが現実になったことについて嬉しく思っていました。」と彼は数ヶ月のテストについて言います。「これなしでは生きていけません。どれほど大きな進歩であったかということです。一度体験したら、以前の状態に戻るには、文字通りとても困難です。

「HDXは、ハイブリッド・エンジンによって完全に活気を取り戻しました。素晴らしいことです。これが現存するハードウェア上で達成されたのは、驚くべき事実でしょう。」

最大の価値はパフォーマンスの大幅な向上だけではなく、何年も前に投資した同じハードウェアを使用してそれが行えるということです。

 

「HDXは、ハイブリッド・エンジンによって完全に活気を取り戻しました。素晴らしいことです。これが現存するハードウェア上で達成されたのは、驚くべき事実でしょう。Pro Tools | Ultimateのソフトウェアをアップデートするだけで、ハイブリッド・エンジンが追加の費用なく使えるという事実は、Pro Tools 史上最大のパフォーマンス向上です。これにより、DSPチップの利用が選択肢になりました。必要な時に使うことができますが、その制限に縛られる必要はなくなったのです。つまり、私たちにとって、HDX上でハイブリッド・エンジンを使用するということは、実現できることの制限がなくなったということを意味しているのです。」

ウェールズのホームスタジオではDolby Atmosミキシングセットアップを含めて、ワーナー・ブラザーズでミックスする同じギアを多く使用

Pro Toolsで成功する

業界トップのツールを使って、サウンドをパワーアップ。映画/テレビ用の音楽やサウンドの制作から、世界中のアーティスト、プロデューサー、ミキサーとのコラボレーションまで自由自在。