Hercelot LOG

変な音楽とか

Ableton-美学校 キックオフmtgのノート⑤

今回は「オートメーションの絶対/相対 +漏れた話」です。
前回同様、大した話ではないので、短くおわります。



第①回:アルペジエーターの並列応用
第②回:クロスフェーダーでミュート処理
第③回:結合・クロップ・分割
第④回:Alt+Space再生
第⑤回:オートメーションの絶対/相対 +漏れた話

オートメーションとモジュレーション

いろいろ呼び方がありますが、
「パラメータが時間変化するように変化の線(エンベロープ)を書き込む」操作の話です。

種類は2つ。
アレンジメントビューに直接書き込む「オートメーション」と、
それぞれのクリップに持たせる「クリップエンベロープ」。
後者は、Live10から(?)は「モジュレーション」というようです。


オートメーション

こちらはパラメータを絶対的に操作します。
つまり、書いたまんま、そのまま動くということです。
f:id:hercelot:20180605012759g:plain



モジュレーション

一方こちらは相対操作です。
(講義では「デバイスパラメータがモジュレーションに出てこない!?」と焦ってしまいましたが、任意のパラメータを右クリックして「モジュレーションを表示」すると、エンベロープを書く画面で選択できるようになります。)
エンベロープを書こうとすると、表示が「0%〜100%」と%表示になっていることに気づきます。
0〜100で可変のパラメータを100に設定して、0%〜100%で変わるエンベロープを書くと、0〜100で変化します。
50に設定するとどうか。0〜50で変化します。
0だと、エンベロープがまったく効きません。

クリップ側に、パラメータの絶対操作を期待してエンベロープを書いても、そうは動かないので注意しましょうということです。


では何に使うのか?

モジュレーションという名前通り、基準パラメータに対して「動きを書いておく」感覚がおすすめです。
ピッチベンドは「ノートの音程に対して、ベンドの変化をつける」ものだし、
エクスプレッションも「Instrumentの音量に対して、音量表現をつける」もの。
シンプルに手書きLFOみたいに使ったり、
ワンループ分の細かい動きを書いてから、オートメーションで基準値をじわじわ変化させるとかもよいです。


手書きLFOについて、モジュレーションのUnlinked Loopを試すのもおすすめです。
モジュレーションのループ長を、クリップ自体のループ長とは違う単位に設定できます。
4 bar Loopのふつうのクリップに、1/4 bar(1拍)で繰り返しまくるモジュレーションを書いたり……
クリップのループ長に対して約数にならない、ポリリズミックな動きをつけるのもワイルドです。





ノートはここでおわり。




講義から漏れた話

DAWの音質差についてヒアリングしたかったんですが、講義スタイルでやることではなかったので諦めました。
おれはこれず〜〜〜〜っと悩んでるんですが、ぜんぜん納得できなくて、マジのところを知りたい。



たとえば「Ableton 音質」でググればいろんなユーザの声を読むことができますが、どれも経験論止まりで、科学的に解説できているものはなかなか見つかりません。

「PlaybackとRenderingの差」を言っているのか、
「ひとつの完成楽曲の質のコントロールが理想的にできない」と言っているのか、
「他人のもの含めAbletonを介して制作された作品たちからなる群としての傾向」を言っているのか、
「それら全てを個別に認識できた上で全てが悪い」と言っているのか、
論点も不明瞭なことが多いです。

もちろん、「だから信用できない!無根拠の思い込みだ!」というのでは全くなくて、火の無い所に煙の立つ現代といえど、みんな言ってんだからDAW側に何か原因のある可能性のほうがやっぱり高い。
オーディオオカルト(って言い方はくさしてるみたいで嫌いですが)にしたって、人が「変わった」と感じたことを第三者が否定するのは無理筋です。感じてんだから。すべきなのは、それがどのレベルまで一般化できるのか検証することです。



「硬い音が出る」「低域が豊か」「高域が狭い」「音に密度がある」「分離感」「艶っぽい」主観ワードがいろいろありますが、
アナログ機材やD/Aの違う機材は、電気的特性からくる物理現象のクセを耳が感知することはよくあるわけです。
物理現象なのでこれも理論的に説明できるはずですが、要因があまりに多く不安定なので、基本は「そういうもの」として自分の耳やエンジニアの経験論を信頼してしまうのが一番良さそうです。

しかしデジタル内で話をするなら別、どんな電卓でも「1+1」は絶対に間違えません。
(この言い回しは誰かのパクリです)
一方、「99,999,999 x2」は、8桁の電卓と10桁の電卓では精度に差が出ます。
真面目に行えてない計算がありかねないということです。
では、DAWの場合どこにそういう差の出る可能性があるのか?



まずはAbletonが公式に出しているAudio Fact Sheet
定量的に証明できる箇所について記されています(Live7で止まってましたが、10が出て更新されました)。
たとえば「Undithered Renderingそれ自体はNeutral Operationであって、playbackとexported file間に内容変化を引き起こさない」と、まあ当たり前に書いてあります。
「ストレッチしてない、テンポ一致時のWarpは、Complex/Proを除いてNeutral Operationである」というのはちょっと驚きですが……
おれはとりあえずすべて読んで真面目な態度だと思いましたが、断言できるのはこの程度だよねーというのが率直な感想です。
こういうところでヘラヘラ調子に乗らず公表してる時点で本当に偉い。



よく見る感想から理由足りうる論点を列挙してみました。

  • Online Playbackの演算がOffline Renderingと異なるのか?(Liveの"再生を止めない"設計理念上、Buffer不足を演算の簡略化でカバーしている可能性。しかしどちらが"正し"くてどちらが"悪くなった"のか? もしも、シーケンスを遅らせずに厳密な演算でのplaybackが不可能だった場合、「playback/renderingを一致させる」「一番正しい演算でrenderingする」「live中にplaybackをモタつかせない」のうち、1つを諦める必要があるだろう)
  • Offline Renderingしたものを再生する環境について比較のための最低限の条件制御ができているのか?(できてないとしても有意差が感じられる場合原因はどこなのか?)
  • Sample Rate Conversionのクオリティが悪いのか?(Infinite Waveの調査では有意にAliacing Noiseが多いようにも見えない、むしろスコアは良く見える。この調査が即クオリティを保証しているとも断言できないが。)
  • Bit ConversionおよびDitheringのクオリティが悪いのか?(もしそうなら、32bitのまま書き出して別のツールを用いることで回避可能だ。公式もこれを推奨している)
  • AbletonのUIに身を委ねて操作をしていくと、音作りが悪いところに誘導されてやすいのか?(〇〇のDAWってみんなこういう音だよね、の傾向はDAWの性能よりも、DAWが持つ初期設定的なパラメータや作業フロー、用意された音源を浅く素直に使うことでの影響のほうがずっと大きいだろう。ミキシングだけでなく作風もそう。言ってみれば使い方の責任だが、使いやすさはツールの重要な価値である)
  • OSや周辺機器、特定プラグインとの相性で途端に悪くなることがありえるか?(とくにWin/Macは全くの別ものになっていかねない)
  • (話にならないおれの不手際なのだが、Kontaktの参照サンプルを通信速度のおっそい外付けに入れて使ってみたところ、マシンがあったまってくると音切れがランダムで発生してPlaybackとRenderingの間に明確なミスが発生した。ここまで来ると音質の話などではないが、違いが発生する状況としてはカウントできる。)
  • WarpしたAudioが元のAudioと比べて悪いのか?(のか?っていうか多くの場合変わるので、理解して避ければよい。上記Fact Sheetに従い、ストレッチしないならComplexは避ける。(変わらないことが証明されているが)心配ならWarp自体外す。)
  • 純正Deviceの質がそいつの好みでないのか?(サードパーティプラグインで回避できよう)
  • よっぽど不真面目な演算が確信犯的に紛れ込んでいるのか?(何かの利便性とのトレードオフなどで)
  • よっぽど不真面目な演算をしていた旧verのLiveの印象が引きづられているのか?(versionによる印象の違いの声も聞いた。)
  • 真面目なつもりでバグが紛れているのか?(ならば、ユーザが指摘できればと思う)
  • 全体的に印象の問題に過ぎないのか?(たとえばデザインの飾らなさが音を地味に聴かせることはある。「出力音源のみの比較評価」には関わりないところだが……)
  • 全体的に噂の問題に過ぎないのか?(無責任に放言するにはかなりキモチイイ話題だから。全員が責任持って言ってはいないかもしれない)

そもそも「音が悪い」ってすげーざっくりしてて焦点定まってないし、いろんな印象論のごった煮になりやすい。それを取り違えて、自分の使い方あるいは耳が悪いのを、ツールのせいにしちゃってたらかなり恥ずかしい。
だけど何度でも繰り返すが、科学的に証明できなかったとしてもじゃあウソですねと言えるほど、沢山の耳の良い人が騙されてるわけもない。



アナログデジタル問わず、ミュージシャンなんだから理屈を追わずに「アーハイハイこういう感じ」で上手くいくならそれでいいんだが、
"Abletonの"音の悪さは明らかだよねってニヤけてマウントを取るおっさん(仮想敵です)のせいでAbletonユーザみんなの価値が毀損されるのはしゃくだ。
(それが真実な可能性も大いにあるのが厄介で、もしそうだったらおれは土下座すべきですね。)
ていうか、そういう印象面でのマウントをふっとばす啓蒙活動がしたいんだったら、いい音の作品を作ることが一番なんだが、おれにそれができてない時点でお察し。

この問題にこだわるのは、おれがいい音で作りたいからじゃなくて、好きなツールがもし不当に貶められていたら嫌だなあ、でもどっちなんだろう?に尽きます。
また、ツールの使い方に多少自信あったとしても、音楽作るうまさや耳のよさについてはどってことないし、謙虚にいなければ。
おれの手に負える問題ではない。だからAbleton User Groupに少し力を借りたいわけです。




おわり


追記)じゃあ実験をしよう、って話がぬけていた。
少なくとも、シンプルな作業、異なるDAWで同一のはずの操作、同一のオーディオファイル、同一のサードパーティプラグインを使ってシンプルな操作をしたとき、Renderingデータの定量比較、Playbackをラインで録っての定性比較は色々できうるだろう。
障壁となるのは、まずいっぱいDAWを買う必要がある、遠隔で知人の協力を仰いでも同一の操作をできているか保証し難い、DAWを新規に買っても慣れるまではデフォルト設定の違いがどこにあるか・どこで条件制御できるか気づけない可能性が高い。
ベストは、違うDAWを使い込んでる人の協力を得て、隣で見てもらいながら操作を行う、か……?
負荷が結構かかるほど多くを組み上げたプロジェクトを比べるのはもっとむずかしいが、そういうときほど差があらわれる可能性もある。
めんどくせーけどしかたねえ



第①回:アルペジエーターの並列応用
第②回:クロスフェーダーでミュート処理
第③回:結合・クロップ・分割
第④回:Alt+Space再生
第⑤回:オートメーションの絶対/相対 +漏れた話

CONCRETE SOUND FOR OUR CHILDHOOD