ユリイカ2005年3月号「特集*ポスト・ノイズ 越境するサウンド」より
久保田晃弘氏による「ライブ・コーディングの可能性」を読んで思ったこと。


ラップトップを用いたライブにおいて
全てのプロセスをオープンにすべき、ということに関しては
正直判断しかねるのだけれど(以前なら賛成だった)
ライブコーディングがプロセスをオープンにできる手法かというと
そうではないと思う。


ライブコーディングのメリットはおそらく
音響/音楽を生成するアルゴリズム
ラップトップでのライブにおける「演奏者」の仕組みそれ自体を
柔軟かつリアルタイムに変更可能であること
にあるのであってプロセスをオープンにすることにはない。


久保田氏も指摘しているようにラップトップを用いる場合
その操作は入れ子状、間接的にならざるを得ない。
実際に音を出すアルゴリズムを操作するのが演奏者の仕事である。
それはオーケストラを指揮する指揮者の仕事に似ている。


そしてその仕事(演奏とも言う)を観客に見せたければ
デスクトップ画面を公開し、アルゴリズムの動きを見せるしかない。


しかし、リアルタイムに生成されるアルゴリズムの文字列や
プログラムのパラメーターを操作する動きを見せたところで
プロセスをオープンにしたことになるのだろうか。
観客はそれを見て音の生み出される過程を想像できるだろうか。


そしてそもそも問題はそこにあるのだろうか。


質量の無い「計算」によって音が生み出されるコンピューターの場合
専門の知識を持たない人が見ても分かるようなプロセスの見せ方は
かなり難しいんじゃないかと思う。


コンピューター内部で起こっている事の情報を
何の変換も無しにそのまま与えても意味がない。


そういえば、米子君が作っていた自律的音楽生成ソフトウェア「chochopin」は
その辺もいい線いってるような気がする。
コアラという分かりやすいビジュアルを既に使っているんだから
音の処理とビジュアルのアウトプットの関係をもっとシンプルに
伝わりやすい形にすれば面白そうだ。


例えば音を切り刻んでいるのなら、コアラが包丁で何かを切っているとか。
音の処理、出音とビジュアルがポップな形で対応するのも面白いと思う。