Takahiro Izutani

2019年11月

GameSoundCon 2019 Part 3 (Composing Interactive Music 2 by Tom Salta)


前回の続きでTom Salta: Composing Interactive Music 2のレビューです。

さて、どんなに音楽が素晴らしくても杜撰なやり方でその音楽をゲームに組み込んだら台無しだよね。ゲームをプレイ初めて45分経ってもまだ同じバトル曲が同じ様に流れ続けてたら頭がおかしくならないゲーマーはいないだろ?w

ゲーム音楽のインプリメンテーション(組み込み)には原則的に三種類ある。

・Linear (Horizontal) 通常の音楽再生方法、時間軸上に沿って再生させる方法
・Layered (Vertical)  音楽を時間軸上の縦に重ねて再生させる方法
・Generated             ゲームプレイがノートの一音一音にまで影響して音楽を再生させる方法

LinearやLayeredと違ってGeneratedのコンセプトは想像しにくいと思うけど、例えば最もシンプルなもので例えるとスペースインベイダー(Space Invaders)もGeneratedだよ。プレイしていくうちにエイリアンの残数が減っていき、それによって音楽の再生スピードが早くなっていくだろ?

で、Linearは通常の再生方法だからLayeredの解説からしていくよ。


4 layer music system for Dead Space by Jason Graves

これは僕の同僚のJason GravesというコンポーザーがDead Spaceというゲームで作ったシステムだけど、僕自身も自分なりに工夫して取り入れてる。ゲームをプレイする時にはゲームエンジンがミドルウェア(音楽とゲームエンジンのブリッジになるソフトウェア)にどのレイヤーがどの様に再生されるかを指定するんだが、これはそのオーディオ部分だけシミュレートしたものだよ

これは4つのレイヤーを周波数帯域別にわけて作ったもので、元々ひとつの曲として作られたものをレイヤー化することを前提で制作したものだそうです。この様にゲームシーンが冗長にならないように変化を作る際に4つのレイヤーに4曲作る必要が常にあるわけではなくインプリメンテーションを理解していることによって制作を簡素化し、かつより効果的にゲームプレイに反映させられるということでした。

僕が担当したタイトルの中ではWolfenstein: Cyberpilot (2019年7月リリース)というVRの作品でも同様のアプローチをとっているよ。

Wolfenstein: Cyberpilotでは敵がプレイヤーを探しているモードの時に最もインテンシティが低いレイヤーの組み合わせ、敵が接近してきて戦闘状態に近づくに連れてインテンシティが高まり元の楽曲がフルレイヤーで再生されていくように組み込んだんだ。この時にはクライアントにプロジェクトのプランニングまでを依頼されたので二人のWwise(インプリメンテーション用のミドルウェア)のプログラマーを雇ってシステムを実際に制作して自らプレゼンテーションをしたんだ。

ここで会場にいた初期HaloシリーズのコンポーザーMarty O'Donnell氏からオーディエンスの理解をサポートする様に質問。

「君はフリーランサーなのに多くのプロジェクトに関わってインプリメンテーションの役割やデザイナーの役割を果たしてるよね。この場所には音楽はいらない、ここはいるなどどうやってプロジェクトのゲームプレイに関するコンセプトの部分(Aesthetic Side)に関わることができているの?」

マーティ グッドクエスチョン!w それはディベロッパーのサイズによるところが大きいよ。大きいディベロッパーのプロジェクトならチームは大人数になるため全体像は曖昧になりコンポーザーは自分のやるべき作曲の部分に集中することになる。一方インディーゲームでは自分が関われるインプットの部分は大きいです。ただ唯一の例外はPrince of Persia: The Forgotten Sandsの時で、その時は実際に音楽を書く前にUbisoftの様な大きなディベロッパーにも関わらずチームと会議室に集まってどんなオーディオのメカニズムを作るべきかをディスカッションする場が設けられたんだ。任天堂wiiのシステムでどんなことができるか、何ができないかを話し合いました。大抵は彼らが僕に決定事項を告げるだけで僕から何かを提案することはないんだ。こんなことはめったにないことだよ。なぜならチーム内にゲームエンジン内でオーディオがどんなことができるか精通している人間が(大抵はインハウス)いなければ音楽の優先順位は低いからね。

さて今度はGeneratedについての例をあげていこう。


ここではLayeredとGeneratedの複合的なシステムを作った。ゲームプレイの状況が変わった時にトリガーとしてスウォッシュサウンドを鳴らす様にプログラムしている。その一小節あとに音楽のレイヤーが追加されてアレンジが変わる。そのスウォッシュ音とリヴァーブのテールがマスキングしてループポイントの継ぎ目をきれいに隠してスムースにアレンジが移行していくような仕組みを作ったんだ。そして、どの小節においてもゲームプレイにあわせてこの仕組みが可能なように組み込んだんだ。他にも色んな工夫を凝らしたんだけど、例えばどのコントローラにもプレーヤーが触れていない時間が20秒続いた時には音楽が一番地味で盛り上がらないアレンジ(Boring State)になるように組み込んだりね。コントローラに触れた反応があると再び音楽が盛り上がりだすんだ。

更にはプレイヤーが敵に勝利する最後の一撃を出す際にはビープサウンドによるリズムマップだけをWwiseに組み込んでおいて(Beep Map)それをトリガーにしてゲームの各ステージによって異なるスティンガーが再生するシステムを作った。スティンガーはコードサウンドのヒット音になっていてステージごとに、ビープマップと同じリズムの、異なるコード進行の曲になって再生されるんだ。


もし作曲の際にAbleton Liveを使っている方がいらしたらレイヤーの組み方の考え方はSession Viewのコンセプトに近いです。自分はかつてDugoでのライブ演奏の際にAbleton LiveのSession Viewで作ったセットで、ヘッドフォンでモニタリングしているドラマーとお互いの演奏に反応し合いながら即興的にSession Viewのレイヤーを変化させて曲を展開させていくという試みをしたことがあります。Tomさんは「WwiseはゲームサウンドにおけるDJみたいなもんだ」と端的におっしゃってましたが、まさにWwiseはプレイヤーの行動、反応に対してゲームサウンドが楽曲や様々なサウンドをどう生成、再生していくかのコンセプトを作るという、クラブにおけるDJの様な存在です

Super Mario Odyssey (Electric Wires)

ここでLinear、Layered、Generatedの最高のコンビネーションを紹介するよ。それがSuper Mario Odysseyのワイヤーシーンの演出。まずゲームプレイ中にバックで流れてる音楽はLinearだね。ところがプレイ中イベント的に発生するワイヤーシーンのアルペジオサウンドはLinearのバックグラウンドミュージックと常にハーモナイズしているんだ。ワイヤーを使って別のステージに移動するんだけど、移動の途中からもうアルペジオも切り替わるんだ。ゲームのステージによってBGMのキーとテンポが変わればワイヤーアルペジオのキーとテンポもあわせて変化する。しかも曲単位じゃなくてBGMのコード単位でアルペジオもハーモナイズしていくんだよ。

つまりLinearのBGMに対してLayeredされるワイヤーシーンのアルペジオサウンドは内蔵された音源によるGeneratedという、これぞマルチインタラクティブの究極的な形だね。

そして最後にもうひとつ、究極のインプリメンテーションが使われたゲームの例をあげておくよ。

Peggle Blast (Electronic Arts)

最後に紹介するのはPeggle Blast。これは本当にすごいです。今日話した全てのエレメントがひとつのゲームで確立されているだけでなく、皮肉なことにテクノロジーとメモリーに関する限り最も小規模で、かつその少ない容量のせいで最も複雑にサウンドが構築されたゲーム作品なんだ。

・音楽に使用できる容量は5MB
・30分の音楽を再生しなければならない

これが最初の前提条件。ロービットレートでオーディオファイルを組み込む?それはだめだめ。じゃあ残されたオプションは内部音源で音楽を生成させるということしかない。用意された音色のノートを全てリアルタイムで再生させるやり方だね。

これは画面上の釘を撃って消していくゲームですが、BGMに加えて、プレイヤーが撃ったボールが釘(Peg)がヒットされる度に音階になっている効果音(Musical Stairs)が奏でられる。それぞれの種類のPegに対してはそれぞれ異なるサンプルインストゥルメントが鳴るように設定されている。どのサークルやPegをヒットするかでコードとスケールが変化する。ショットごとに楽曲のキーは移行していくんだけど、成功した時のコードはプレイヤーがどのキーセッティングにいるかで決まり、フリーボールを獲得した時はその時のキーサイクルのsus9のコードが鳴るようになっている。

スティンガーはBGMと調和しつつキーサイクルの範囲内で変調しながら鳴り、スティンガーのタイプはそれぞれのキーセッティングに対して12から15種類のMIDIファイルが用意されている。

また各ショットごとにキーが転調するので飽きが来ない様にできてる。そしてそれぞれのキーで適切なノートが鳴るようにセットごとにタグ付けがされている。
Harmonic Flow.jpg

インテグレーションに関しても驚くほどよく作られています。

僕はこのゲームが作られる前にこのコンセプトのことを聞いて知ったので、他の方法で自分なりに試してみようと思ったんだけど、全くうまくいかなかったよw。しかしこのチームは本当に素晴らしい形でそれをやってのけたんだ。

これはインタラクティブの最も効果的な例です。テーマもメロディもこのゲームにはない。コードを中心にして再生されるただのサウンドだけど、インテグレーションは驚くべき完成度の高さだよ。

Tomさんいわく「WwiseはゲームサウンドにおけるDJのようなもの」自分はWwiseとは資格が必要なほど専門的なノウハウを必要とするもので技術サイドに寄ったソフトウェアだと思っていたのですが、Wwiseを使ったゲームのインプリメンテーション自体はむしろ楽曲制作よりもさらにクリエイティブな分野で、再生方法やプレイヤーとの相互関係を定義づけるための自由な発想を展開できる場だということがわかりました。ちょうどDJとフロアで踊るクラウドがその場のノリを共有してインタラクティブに反応しあい、DJが用意した音楽をオリジナルなプレイでよりクリエイティブなものに昇華していくのと同じことです。

こちらはPeggle BlastのチームとコンポーザーのGuy Whitmore氏による2015年のGDCセッションの動画です。同シリーズ前作にあたるPeggle 2というタイトルのレコーディングセッションで収録したオーケストラサウンドのマテリアルから、Nuendoを使ってストリングスのスタッカート、スピカート奏法等によるカスタムサンプルを作ったあと、制作した楽曲のmidiをエクスポートして、サンプルとmidiそれぞれをWwiseに読み込ませてWwiseをサンプラーの様に扱って音楽をリアルタイムで生成しているとのことです。


GameSoundCon 2019 Part 2 (Composing Interactive Music 1 by Tom Salta)

Photo Oct 30, 2 59 43 AM.jpg
前回に続いてGameSoundCon2019のレポートです。今回はHalo: Spartan AssaultTom Clancy's Ghost Reconシリーズの音楽で知られるコンポーザーTom Salta氏によるセッションComposing Interactive Music 1を取り上げました。

ゲーム音楽では通常のストリーミングなどのメディアで再生される音楽と異なり、ゲームプレイ中の状況にあわせて連動するようにあらかじめ組み込まれた音楽の再生方法や音楽自体の選択を決定するルールを組み込む必要があり、このためにミドルウェアと呼ばれるゲームエンジンとオーディオファイルの中間に位置してコントロールするシステムが存在します。このセッションではミドルウェアを用いたインタラクティブな音楽再生の仕組みを解説するのが主旨ですが、前半の一時間はまずTomさんの楽曲制作に関するマインドセットとモチベーションの管理の仕方に関する話でした。

ゲームプロジェクトは数年にもなることすらある長丁場の作業なので作曲においてもプロジェクトの段階ごとにそれぞれのマインドセットを作り、作業内容の選択と集中を促すための効率化が必要になります。それを5つの段階にわけて解説されました。

1 コンセプトと美学の決定 (Concept and Aesthetic Developement)

この段階は実際の制作作業ではなくアイデアを集めて方向性を決めるための準備段階だね。例えばただ闇雲に「曲をつくらなきゃ!」と無計画に作業してみたところで大抵は図の様に相当非効率な過程をたどることになるだろ?w
Photo R 1-11-18 18 53 31.jpg

そこでまずワークフローを創作段階と作業段階にわける。

自由な発想から生まれる良いアイデアは何の制約もないプロジェクトの初期段階にこそ思いつくもの。なのでまずは作品の大枠のテーマとコンセプトを決め、そういった抽象度の高いものから始めてどんどん具体的なところに落とし込んでいくのが良いよ。

この段階では楽曲自体はまだ作らずシグネイチャーになる様なアイデアやサウンドのレシピを確立したり。そのためにクライアントには参考になる様なリファレンス素材は何でもかんでももらえるように頼んだりする。例えばExcelで作ったゲーム構成のディスクリプションシートやデモとして作った楽曲のモックアップをもらえるか聞いてみたり、過去の同じシリーズのゲームをプレイしたり、発想を膨らませるために右脳の創作性の部分を思いっきり働かせるのがこの段階だね。


2 使用する音素材を初期段階で決定する (Define Your Palette Early)

次に実際に使うサウンドや楽器などを決めていくんだ。前段階で膨らませた発想を元に実際にアイデアを出してみる。(Capture random ideas)この段階ではSand Boxで遊んでいる子供と同じで、まだプレッシャーもなく大人になる必要もない。こういう時に出てきた良いアイデアは締め切りに向かって作業をしている時には決して出てこないので思いっきりとにかく遊ぼう。例えば新しく買ったシンセをいじってみたり、エフェクトで変な音を作ってウォーとか騒いでみたりなどなどw で、アイデアが固まってきたら実際に使用するサウンドと楽器を限定していくんだ。特に大事なのはこのプロジェクトの楽器編成には誰がいるのか(Who is in the band?)を想定しながらテンプレートとサウンドのパレットを作ること。カスタムインストゥルメントを作ることなんかもこの段階で決めるんだ。

パレットを限定しておくことで脳が楽器選びやサウンドのチョイス以外で後に創造性に関して働く余地を残しておくんだ。そしてゲームに置いてはステージごと、キャラクターごとのテーマとパレットをあらかじめ決めておくのも重要。こうやって右脳の創作性と左脳の論理性を制作の段階ごとに上手く使い分けるのが制作のプロセスを崩壊させないためのコツ。この段階は制作全体に費やす時間の15%くらいに相当するよ。


3 作曲 (Compose)

作曲の段階で重要な要素はテーマと変奏 (Variation)だね。強力なテーマを作ることは後々の作業に柔軟性をもたらすし、それによってクライアントもコンポーザーもハッピーになれる。転調 (Modulation)もとても有効だけどクリエイティブな転調のアプローチを考えよう。繰り返し(Repetition)も音楽の手法としてはありだけどゲームではプレイヤーは何回も何回も同じ曲をきくことになるからこれもクリエイティブなアプローチを心がける。あとはリズムのヴァリエーションも大事。リズムのヴァリエーションだってもちろんプレイヤーの感情に大きく影響するからね。

Tom氏はオーケストラのConservatory出身ではないので膨大な種類のアーティキュレーションを扱うようなテンプレート作りには興味がないようでした。それでもオーケストラのリアルを体感しておくことは重要だと。子供の頃からジョン・ウィリアムズを聞きまくり、録音物だけでなくライブオーケストラを聞く機会も積極的に得るようにしていたとのことです。またオーケストラに深い造詣があるのであれば膨大な種類のアーティキュレーションを全てロードしておくようなテンプレートも有効ですが、そうでないならば自分にとって「使える!」と思えた音に選択と集中していくほうがより効果的に自分の価値を高められるというポジションだそうです。前回のブログで触れた陣内一馬さんによればハリウッド映画音楽のトップレベルのコンポーザーになると専属のスタッフを雇って24時間立ち上げっぱなしにした機材とPC、そしてそこに立ち上げられた巨大なテンプレートを管理しており、そのトラック数は一万トラックにも及び、PCのディスプレイは第一第二ヴァイオリンのアーティキュレーションだけで上から下まで埋まっているそうです。自分はTomさんと同様に正式な音楽教育を受けてきたタイプではないので非常に共感できる部分が多く、またどこに集中的に自分のリソースをつぎ込むかという視点での話もとてもうなずける部分が多かったです。

4 テストと反復 (Testing and Iterating)
5 ファイナライズとミックス (Finalizing and Mix)

これらについては時間がなくなったため最後にサッと触れて終わりでしたw

セッションの最後にはQ&Aのセクションがあり、具体的にどんなリズム音源を使っているかなどを細かく質問されている方がいたのですが、こういった機材の話になるとどのセッションでもとたんに場違いに感じられる微妙な空気が流れていました。この時にTomさんは音源のことも親切に説明していましたが、むしろそれらをどういう自分なりの工夫で使っているかという点に時間を割いて説明していました。例えば「いまだにStylusRMXはよく使うけど、ループのカスタマイズ機能で使ってるんだ。オリジナルのループを作るために中東製のチープで無名なシンセや、CASIOの昔のシンセで作ったパーカッションの音を手で演奏して録音したものをRMXに取り込んでエディットしたりエフェクトを使って面白いループのオリジナルなライブラリを作ってるんだ」とのこと。どんな機材を使っているかのような情報はもはやシェアする価値がなく、自分なりにどのように機材を活用しているかのレベルで情報をシェアすることに価値がある。もはやこれはクリエーターとしての尊厳に関わる問題で「自分は消費側でなく供給側である」と言う自負からくる意識なんだろうと感じました。

ちなみに使っているリズム音源にしてもTomさんは全部逐一公開していました。もはやそんなことをシークレットにする必要すらないのでしょう。その質問にすら最後にはもはや使ってないサンプルをどんどん消し始めているとおっしゃっていました。

Tomさんは翌日には制作におけるマインドセットの管理についてのみをディスカッションするセッションにも参加されていました。自己管理がいかに最終的な成果物のクォリティに影響するかという点で、これもとても興味深いセッションでした。

Composing Interactive Music 2に続きます。

GameSoundCon 2019 Part 1 (Keynote by Wilbert Roget, II)

メルボルンに続いて先日はロサンゼルスで近年開催されているGameSoundConというゲーム業界のオーディオセクションに特化したカンファレンスに参加してきました。GDCに比べると分野が特化されているために規模は小さいですが、その代わりにどのセッションも全てサウンド関連のものなので二日間の開催期間中息つく暇もなくセッションに参加しました。今回はその中からCall of Duty WW2Mortal Kombat 11と言ったAAAゲーム作品の音楽も手掛けたWilbert Roget, II氏のレクチャー"Playing the Long Game: My 25-Year Journey to Mortal Kombat 11"をレポートします。

DSC03907.JPG

このレクチャーのメインテーマは音楽のことよりもズバリ「長期的な信頼関係」でした。彼のキャリアの中でいかに友人、知人との長期的な信頼関係が自分のピンチを救い、チャンスを生かし、さらには新しい事へのチャレンジと学習に繋がったかという話でした。そして彼の現在の成功こそがその証明であると。

例えばかつてLucas Artsにインハウスコンポーザーとして在籍していた時代に最もご自身が多くの貢献をしたStar Wars: First Assaultというタイトルでは制作途中でディズニーによるLucas Artsの買収によってプロジェクト自体がキャンセルされてしまい全てのスタッフが解雇されてしまったそうです。プロジェクトはアビーロードスタジオでオーケストラレコーディングを終え、完成まであと一ヶ月のところだったとのこと。しかしこの事がきっかけでフリーランスになった彼はのちにこのプロジェクトの時の同僚を介してCall of Dutyの制作会社であるSledgehammer Gamesに紹介してもらい、COD WW2のコンポーザーとして起用されることになりました。(前回のブログで書いた打楽器を全く使わせてもらえなかったコンポーザーとは彼のことです)さらにCall of Dutyのサウンドデザイナーの1人がMortal Kombat 11の制作に関わってると知り、その彼に自分をディレクターに紹介してもらえるか頼んでみたそうです。そのディレクターは彼の過去の仕事をあまり知りませんでしたが2016年に彼が登壇したGDCでのレクチャーに参加していたことで軽い面識があり、またタイミングがよく彼らは次のコンポーザーをリサーチしていたところでした。そこでオーディションとしてテーマ楽曲のデモをプレゼンする機会を得た彼は楽曲を仕上げたのち、曲のテーマを演奏する楽器のソリスト達を雇い、彼らのレコーディング時の演奏シーンを撮影してデモ楽曲に当てはめたムービーを作成し、それをディレクターにプレゼンしてメインコンポーザーの地位を勝ち取ったとのことです。

また新しい出会いが未来の次の出会いに繋がるのと同様に、目前に立ちふさがった困難やチャレンジの機会が新しい知識を学習するきっかけになり、さらにはその知識が次の機会につながっているという話も大変興味深いものでした。

16歳でFinal Fantasy 7の音楽に感銘を受けてゲームコンポーザーを目指す様になった彼はまず様々な楽曲のmidiへの書き起こしをひたすら続けることで作曲の基礎を学んだそうです。そしてイェール大学を出た後に入ったLucas Artsではインハウスコンポーザーの立場から音楽のインタラクティブシステムを1から作り上げる経験を経たことで、後にフリーランスになってから彼自身がLucas Artsで作ったシステムに影響された他のタイトルに今度はメインコンポーザーとして呼ばれることになったと。この際にはディベロッパーからゲームエンジンとデベロッパーツールが全てインストールされたPCを渡されてまるで新しく雇われたインハウスのスタッフのように扱われることでさらなるインプリメンテーションの知識と経験を得ることになったそうです。

またCall of Duty WW2の制作時にそれまではCODシリーズで必須とされていたシンセサイザーのサウンドメイキングをU-he Zebraを使って徹底的に学んだにも関わらず実際にはシンセサウンドを全く使わない方向性が決まってしまったのですが、その後その際の知識を使ってDensity 2 Forsakenというタイトルではアナログシンセのサウンドを作曲に取り入れ、Mortal Kombatではむしろオーケストラをバックにしてシンセをシグネイチャーサウンドとして使うアプローチを活用し、さらにはCOD WW2で使われていた兵器や乗り物の機械音をシンセサイズ加工してスタンダードなオーケストラパーカッションの代わりに使ってたりもしているそうです。こんな感じで彼のキャリアはチャレンジと学習の連続、そして出会った人との信頼関係が新しい機会に巡り合うきっかけになり、その機会がさらに新たな学習の機会を生み、そこで得た知識が後年の新たな出会いのきっかけになってます。

自分がこのセッションに特に感銘を受けたのは彼が重視する「長期的な信頼関係」と同様に自分が今年参加した日本国外のゲーム業界のカンファレンスでは出会う人達がみな人との出会いに対して長期的視点で投資するマインドを持っていると感じ、Willさんのキャリアはそれを象徴する様なものだったからです。自分がかつて日本国内のイベントや懇談会に時おり参加してた際には肩書きや「誰それと知り合い」などの後ろ盾がなかったからか、なかなか単純に人対人として打ち解けて話をするきっかけが作れず悪戦苦闘していました。それに対してGDCやPAXでもそうでしたが、今回のGSCでは特にWillさん自身から声をかけていただいたり、Finishing Move inc.のお二人から「GDCのときに会ったよね」と声をかけてもらったり、かたや日本のゲームにあこがれてコンポーザーを目指しているという現地の学生の方からも連絡をもらって実際に会ったりと本当に互いの現時点での立場に関係なく話して打ち解けることができました。(日本人の方ではHaloシリーズのメインコンポーザで米在住の陣内一真さん、Platinum Games所属コンポーザーの原田尚文さんや同行されていたサウンドチームの方達と食事する時間を作っていただきました。)このマインドの背景には「長期的視点」つまり今お互いに仕事でつながる関係ではなくても5年後、10年後に実際に協力しあえるタイミングが来るかもしれないという考え方と、肩書きでなく人のファンダメンタルに対して自分の時間を投資するという意識があるんだろうということを感じました。いま実際に自分自身のキャリアを考えるとそれなりにターニングポイントになっているプロジェクトに繋がったきっかけが知り合って10年以上経って初めて実際に一緒に仕事をする方だったなんてこともあります。そしてまた出会う方がみな「いかに自分が持ってるものを他人とシェアできるか」という姿勢でコミュニケーションしてくるんです。「自分はこういう仕事をしてるからこういう情報だったらまかせてくれ」とか自分の住んでる国や街のローカルな事情をシェアしてくれたり、「こういう人だったら紹介できるよ」など。これもシェアすることが回り回って最終的には自分を含む全てのひとの財産になりうるという考え方が根底にあるからなんだろうなと感じました。自分も含めてのことではありますが、もし海外でネットワーキングすることを考えていらっしゃるようでしたら「自分が何をシェアできるか」という準備をしておくと確実にうまくいくと思いますよ。

最後にWillさんがレクチャーの中で紹介していたオリジナルのKontakt用ストリングスサンプルのダウンロードリンクをこのブログに貼る許可を、ご本人からいただいたので下に載せておきますね。

https://www.dropbox.com/s/p3t932rwyubn1si/StringsOverpressurePatch.rar

これはMortal Konbat 11の制作の際にブダペストで行ったオーケストラのレコーディングセッションの最後の残り2分間で急いで録音したものだそうです。non vibratoとover pressure(弓を弦に強く押さえつけてノイズっぽいサウンド混じりにする奏法)の切り替えをモジュレーションホイールでシームレスに切り替えられるパッチです。これをWillさんはご自身でプログラムしたそうです。それとWillさんは自分がほしいサウンドを追求するために立ち上げたImpact Soundworksというサンプルライブラリーのブランド共同設立者でもあります。