池田拓実氏 Facebookより引用
https://www.facebook.com/takumi.ikeda.522
3/14大崎l-eでの電子音楽会「U::GENvol.13」、裏テーマは何と池田とプログラミング脳(大意)だそうで、突如テーマ音楽家的な事になってどないしよーと思っておりましたら、折りしも今朝方これを書いていたPCがHDD故障にて入滅。前回HDD交換から10ヶ月という短命ぶりで、修理業者も首を傾げる程ですが、ともかくこうした些事の巻き添えを食らってうっかり息絶えかねないのがコンピュータ音楽家という存在の脆弱性と申せましょう。今日の本番を自前システムにしなくて本当に良かったですね(ポジティブシンキング)
というわけで、というよりは予てから、vol.13では通常の演奏ではなく「何が悲しくて音楽をプログラミングなのか」というような話をメインにお送りしたいと漠然と考えておりましたが、これはもう冗談では済まない。
それで音楽プログラミングについてだが、まず考えたのは私が普段使いにしているところのSuperColliderのTipsとか技術的な話は避けたい。私など技術的には大したことない上に、目新しいものにはさほど興味がないのですよね。よって私がツールの話でもないだろうという気がする。
あとプログラミングとか音楽はよくわからないという人にも是非観に来て戴きたいと考えております。実は私もよくわからない。
という感じで目下何するか考え中ですが、折角ならば広く問題をシェアできればと考えておりますので、どなたかアイディアをお持ちの方がいましたら是非私までお知らせください。
(2015年1月14日付)

 

音楽的時間と異なる時間

仲條大亮
私の側ではCUI[1]を機械式タイプライターとメカニカルキーボードで操作するライブコンクレート的な作品を進めていて、プログラムを書いたり録音を使ったり、そもそも音楽的時間と異なる時間を作曲として費やすことや、なぜあえてコンピュータを使うのかというところの話しができたらなと思っていますが、いかがでしょうか?

[1]
CUI(Character User Interface):文字で表示され、全ての操作をキーボードからの入力によって行うユーザインターフェース。アイコンやウィンドウなどをマウスで操作するGUI(Graphical User Interface)に対してしばしば対義語のように用いられる。

池田
仲條さんの音楽的時間と異なる時間のお話、大変面白そうです。

私はプログラミングと音楽との関係を、テクニカルな話題は抜きでお話しできないだろうか、と昨年末から考えていますが、自分がこうなった経緯の年表など作ってみましたが、具体的なアイディアはまだ出てきていません。随分放置していた「記号と再帰」をようやく読み始めましたが、至る所で眠くなり、なかなか進まないので方向性として違うのかも知れません。

「プログラミングと音楽」を「アルゴリズムと作曲・演奏」に直すといきなり具体的になるので、前者から後者へ向かう道々で、互いが互いを説明するような話が何か出来るかも知れません。多少の実例ということで簡単に演奏もすると思います。

仲條
「記号と再帰」読んでいないので、まずは着手してみたいと思います。
こちらでは書籍だとキットラーの「グラモフォン・フィルム・タイプライター」を十数年ぶりに読みつつ、ケルアックの「路上」とギブソンの「ニューロマンサー」、それからバロウズやバラード、ディック、クラーク、の辺りで、映像化されたものの映画数本です。

自分がこうなった経緯の年表、ぜひ披露していただきたく。
普段は全く公開しないのですが、私も年表形式で項目のメモをとって整理していました。
池田さんはU::Gen 5と8、とらわれ1と2に出演[2]されていますが、参照されますか?

[2]
U::Gen Laboratorium vol.5
http://eleclab.tumblr.com/post/36220967187/u-gen-laboratrium-vol-5-live-computer-music-and
http://www.l-e-osaki.org/?m=20121118
U::Gen Laboratorium vol.8
http://eleclab.tumblr.com/post/56501645107/photos-from-u-gen-laboratirum-vol-8
http://www.l-e-osaki.org/?m=20130721
とらわれのギター vol.1
http://kajirurecords.tumblr.com/post/58712606294/9-14-sat-vol-1
http://www.l-e-osaki.org/?m=20130914
とらわれのギター vol.2
http://kajirurecords.tumblr.com/post/65488978361/vol-2-11-9-18-30-1500
http://www.l-e-osaki.org/?p=2325

大谷安宏
思考から音楽になるまでの頭脳内プロセスが見えるとおもしろい。テクニカルなワードで語らずに、テクニカルなことを語るわけですね。「音楽的時間と異なる時間」とはまさに的確な表現で、そこを噛み砕くと突破口になるのではないかと期待です。年表がそれに当てはまりそうですね。

私はノートか方眼紙にガーっと書きなぐりながら音楽をプログラミングするので、メモが何冊かになるんですけど、書いてあることは本人にしかわからない。こういうのって、落書きみたいだけど断片として見せるのはありなのかと常々考えていました。「音楽的時間と異なる時間」を表現しているのではないかと。

ダダ的な解釈になってしまうかもしれませんが、中原中也の未発表詩篇~ノート1924のように2行のメモが並んでいるというようなことでもおもしろいかと。

そもそも、「プログラミング=何をやっているかわからない」という既成概念にとらわれているのはこちら側なんじゃないかと。

CUIとライブコーディング

池田
昨日、日仏で仲條さんとお会いしまして、少しお話した事について備忘です。

まずは先日の東京現音計画の委嘱作[3]のような、楽譜を書く作曲の場合と、自分のソロ演奏の場合とで、プログラミングの側面で何か違いはあるのかという話。もう一つは、年末の地面下の家でのライブ[4]の時に、私はSuperColliderで簡単なCUIを作って演奏していたのですが、それが結構インパクトがあったというご指摘で、自分としては演奏中にマウスの音が気になるのでは、というぐらいの考えでしたが、良い機会なので今後CUIについても再検討してみようと思います。

あのCUIが一種のライブコーディング[5]なのでは、ということですが、ライブコーディングについては、まず私も仲條さんも、イベント等で実物を見たことがないことを確認(笑)。また、時々動画が上がっているのですが、音楽になるまで相当時間がかかっていて、あれは一体何なのか。

ちょっと思ったのですが、料理番組であれば必ず何か喋りながらやっています。寄席の紙切り芸だと、たまたま私が見た人だけかも知れませんが、ハサミを動かすと同時に上体が動き回っている。という感じで、常に上体を動かしつつ、うわ言を言いながらコーディングすれば芸になるのか。

ますますわからないので「ライブコーディング」でぐぐったらとあるページ[6]に当たったのですが、余計わからなくなりました。まずこれでお店として成り立つというあたり。

それはさておき、どうにもライブコーディングがよくわからないので、もし自分がやるとすれば自己流を一から作るしかないのではという気がしつつあります。

ちなみに、米本実さんの自作楽器「3号機」[7]は文字通りの意味でのライブコーディングだと思います。サウンドチップに直接8ビット命令を送ることで演奏しています。

[3]
東京現音計画#04 ミュージシャンズセレクション2:大石将紀
http://tokyogenonproject.net/?p=131
[4]
preview underground vol.2「真空管とコンピュータのロマンティクス」
http://preview-underground.tumblr.com/post/108077456261/preview-underground-vol-2
[5]
プロジェクタ等で操作中の画面を見せながら観客の前でコーディング(プログラミング)を行なうこと。プログラマーの勉強会などで行われる。SuperColliderなどのオーディオプログラミング言語を用いる場合は音楽の演奏として行なわれることが多く、趣向が異なる。
[6]
http://goo.gl/s4Gw6f
[7]
http://homepage3.nifty.com/yonemino/museum/inst1/3go.htm

仲條
演奏中にマウスの操作音が出ることを回避するため、あえて対話式インターフェース、というのは驚きです。
例えばサンプルのポン出しでリアルタイムに音楽を構成していく手法はヒップホップのシーンを中心にすっかり定着した感がありますね。もともとMPCが多かったようで、例えばブレイクビーツを作るにしても単音からフレーズまでサンプリングしたものを即興的に叩いて、面白い鳴りがするものを探しながら作れますし、沢山スイッチが欲しければMIDI鍵盤に並べてもいいんですが、ポピュラーなインターフェースはAKAIタイプの4x4のゴムパッド。
これは仕込みさえ済んでいれば操作から音が出るまでのタイムラグがかなり短縮された手続きですが、コマンドを打ち込む場合は出音の音楽的な時間に対し、作曲者/演奏者の内的な音楽的な時間のずれが大きいのではないのかな、と思います。ところがニューロマの池田さんの演奏は、オーディエンスとして聴いている限り何らの違和感もなく音楽がそこにあるという、一体、この人の頭の中はどうなっているの?[8]

私の場合だと、今回あえてキーボードの操作音に反応するプログラムを書くことでライブとしての可視化、可聴化が、特殊な、特定の時間軸の中で実現できると考えています。その際ライブコーディング動画でよくあるような、スクリーンにポインタが動いて解説が行われるようなことは一切ない予定です。また、操作音が鳴ることを前提としているのでゴムのメンブレン式を回避して、メカニカルスイッチを優先しています。

六本木のハッカーズバー、以前開店した際にネットのニュース見出しを見て、ガールズバー的にハッカーがバーテンダーをやっている店かと思っていました。もしかしたらデバッグの相談にのってくれたりするんでしょうか?

米本さんのSYSTEM Yは電子音楽なう1で拝見したことがあります。まさに話しながらのステージで、確かピカチュウか何かの話と音楽が出ていたのですが、近年盛り上がっているチップチューン[9]は一旦キャラクターのドット絵から切り離されて成立しているように感じます。

それと昨日、日仏のパンフを見て知ったのですが、今日と明日はデモシーンdemosceneのイベントをやっているようです。

[8]
Fixed Media版
https://soundcloud.com/i9ed/ukuphothela-2014
[9]
http://bunkai-kei.com/release/bk-k_044/
http://bunkai-kei.com/release/bk-k_047/
https://note.mu/saitone/n/nd3c6a3625b63

ギター、コンピュータ、音楽外の音

大谷
音楽演奏におけるパソコン、デバイスの操作音の扱いは、楽器の電気化に伴う扱い方とある部分同じ解釈が当てはまるのではないかとおもいます。ギターを例にあげるとフルアコースティックギター(ジャズ)は本体音とピックアップからの電気音が必要な場合に使用し、ギターの本体が鳴っては困る場合はソリッドギターを使用するという、楽器的な解釈と似てるかとおもいます。池田さんがトラベルギターを弾くのにもそんなことも背景にあるのかと勝手に納得しています。

仲條
大谷さんのトラベルギターとフルアコ、セミアコの使い分けが、楽器の形をしたインターフェースの操作という点で、物音とシステム経由の交錯が起きることを密かに期待しています。

私はおそらく今回一回では終わらず、それはほぼ確定で、いまのところツァラやバロウズのカットアップの話は次の次位かなという見込み、これはまだわかりません。大谷さんの中也スタイルが先行して公開されると楽しみです。

池田
ギターについては、実は以前、弾けもしないのにクラシックとエレアコとソリッドを一本ずつ持っていたのですが、さすがに場所を取るので引越を機に全部人にあげたのでした。その後トラベルギターを見つけて、これなら置いておけるということで入手しました。確かにソリッドギターは生音がほとんどないので入力装置に適しているという考えです。

そういえば以前、三輪眞弘さんと話していて、果たしてコンピュータは楽器なのかという話になり、楽器なわけないだろうあれは計算機だ、ということで一致したのですが、であれば私は一体何をやっているのか。というあたりも大問題です。

仲條
例えばグールドのゴルトベルクの録音をどのように聴いて楽しんでいるかは人それぞれで、楽しめないという方ももちろんいらっしゃって、その理由は様々だと思います。楽しめないことを楽しんでいる場合[10]もあったりするのがすごいところです。
ライブならではの楽しみや、ライブ録音ならではの楽しみのひとつに、通常音楽外の音とされる音が聞こえてくることがあって、その通常とする範囲も様々ではありますが、私はギターの指板に押弦する瞬間の擦れた音なんかが聴こえるとたまらない感じです。
アンプを立ち上げたときの音なんかも好きで、似たような話だと、オケのチューニングだけずっと聴いていたいとかいう話があったような、何でしたっけ?

それと池田さんの、あれはU::Gen 8だったか、とらわれ1だったか、トラベルギターと、システムの側でゴルトベルクを使ってませんでした?

[10]
アンサイクロペディア
グレン・グールド
http://ja.uncyclopedia.info/wiki/%E3%82%B0%E3%83%AC%E3%83%B3%E3%83%BB%E3%82%B0%E3%83%BC%E3%83%AB%E3%83%89

池田
とらわれ1では完全に入力デバイスとしてのギターということをやっていましたが、まさにその最初のネタがゴルトベルク変奏曲の録音をギターでいわすというものでした。ギターイベントでのっけからピアノという。この時の録音も微かにギターの生音が聴こえるのですが、これは出音と演奏のタイミングが合ってないから聴こえるわけで、そこらへんの馬鹿馬鹿しさも一応考慮しています。

逆に出音が演奏のタイミングと一致している場合は、何を弾いてもひとつのピッチしか鳴らないという別のネタをやっています。このようにデバイスを見せ聴かせる場合はよしとして、年末の演奏のような場合には、普段使っている安物のマウスだとクリック音がちと無粋かなーと思ったわけです。結果的にCUIの方が仕込みが全然楽だったと後で判明するのですが。

ライブコーディングにタイプライターを持ってくる発想はなるほどと思います。打鍵音は年中鳴っているはずだが、ほとんど聴かれていないがゆえに存在しない音とも言えます。一方でデバイスから完全に打鍵音を取り除くと、暖簾に腕押しな感じになってそれはそれでストレスフルなのでしょう。

音楽外の音と言えば、とらわれ1に出演をお願いした川端龍太さんは、確か20年ぐらい前にPowerBookの演奏を見たのが最初で、恐らく初めて目の前で見たコンピュータ演奏でしたが、途中で再起動音みたいなのが盛大に鳴って、川端さんが「終わりでーす」って言って終わったのをよく覚えています。それで、私の記憶ではもはやその再起動音が演奏の本体ということになっていて、肝心の演奏中の出音については記憶がありません。

昔からテクノロジーの誤用と言われますが、何をもって誤用とするかは結局言葉の問題なので、言葉の部分に刺戟を与えることと一般化できると思います。問題は、例外処理も含めて計算機は常に正しく動いているので、計算機の中の世界だけでは誤用は書けないのではないか。デバイスを持ってくるのは策の一つと思いますが、他の方法はないものか。私はよく日常の言葉を作り変えるとか、言語をでっち上げるみたいな事を言っているのですが、こうした事が背景になっています。

仲條
12月にやった私の片方のもそんな感じです。出音ではギターが音色とリズムに還元されて、ピッチ情報はギターの音では使われない。これを突き詰めていくと大谷さんのパフォーマンスに通じるわけですが、近くで見ていると、出音よりずいぶん先にトラベルギターをガーっと弾いて入力していたり、そしてまたその生音が聞こえてきたり。違うのはモノがリッケンバッカーだというところで、さすがにこれはどうなんだと思ってずいぶん前から大谷さんに相談したりして、いよいよ出すことになったのですが、これはセミホロウボディで本体の鳴りがそこそこ出ること、またブランドや見た目から連想されるものを応用していること、など、システムや演目の一部になっているので、どうかご勘弁くださいと。ライブコーディングについてもずいぶん前からU::Genでやってみてはどうかと話題に出ていて、それで色々調べてみたけれど何か違う。これというアイディアが浮かばずそのままになっていたのですが、昨年秋にいくつかの要素が符合することに気付いて、今回進めているところです。

演奏の本体の話で、コンピュータの本体を比較して考えてみたいと思いました。現在のコンピュータというのも流行など色々あった結果、様々なかたちがあり、また用途によって役割を広げてきていると思います。その仕事を処理している実際の作業が計算であるから、計算機なのだ、といえばそうなのですが、計算するのにスピーカーを内蔵する必要はない[11]わけですよね。

そこに誤用の付け入る隙があると言うか、転用とでも言ったらよいのか、例えばそろばんは計算機ですが、トニー谷の手にかかれば楽器になる、とか、先の池田さんの料理番組や紙切り芸みたいな話で、実際にライブコーディングのイベントが開催されている[12]ようですね。タイプライターの使い方にしても、ルロイ・アンダーソンとサティとケージでは全然違うと思うんです。ましてやいまのコンピュータたるや、見た目こそすっきりしていますが、拡張と吸収を繰り返して「AKIRA」に出てくる鉄男の末期みたいな、キメラ的とでも言ったらよいのか。

言葉については、記述言語における音韻論とでも言ったらよいのでしょうか、GNU[13]の発音が、ぐぬー、とか、ぐにゅー、だったり、なんか無理やりな感じがしませんか?BEEP音しか出ないハードで半ば無理やり単旋律を鳴らして喜んでいた時代があり、それが三和音出るとなったとき、音色を使い分けてポリフォニックにできたとき、など思い出してしまうのです。はじめはキーボードでプログラムを書いて音を出していた[14]のに、画面が五線譜を模したものになって、これではそのまま西洋音楽史じゃないか、と。

それと、デバイスについて私は今回ひたすら接触型をやっていますが、去年のU::GenのLeapMotion大会[15]で由雄さんが非接触型ということを強調されていて。京都[16]ではロマンだということになったのですが、いまタイに長期出張中とのことで。

[11]
フエラムネは楽器かお菓子か?
フエラムネでオーケストラしてみた。
https://www.youtube.com/watch?v=Oi6pw2LorVo
[12]
http://libcoding.so
[13]
UNIX互換のフリーソフトウェア開発プロジェクト。UNIXは1969年から、GNUは1984年から開発されている。GNUはGNU's Not UNIXの頭字語からなる再帰的な自己言及型の名称で、ロゴは牛のヌー(Gnu)だがGをきちんと発音することが求められる、など、入り口からとてもgeekyなノリにあふれている。
[14]
CODING.FM
http://www.coding.fm/
いまはもう耳にしない、過去のテクノロジーの「音」たち
http://wired.jp/2013/07/30/tech-sounds/
[15]
U::Gen Laboratorium vol.10
http://eleclab.tumblr.com/post/75388381962/kajirurecords-u-gen-laboratory-vol-10-electric
http://www.l-e-osaki.org/?m=20140126
U::Gen Laboratorium vol.11
http://eleclab.tumblr.com/post/81970041170/u-gen-laboratrium-live-concert-series-11
http://www.l-e-osaki.org/?m=20140330
[16]
日本音楽即興学会2014年度第6回大会
http://jasmim.net/2014timetable/

シンギュラリティ(技術的特異点)とインターフェース

池田
GNUと言えばLisp族ですが、私は目下Lilypond[17]でSchemeに苦しめられています。
S式で話しかけられると耳から血を噴いて倒れます。

ところで今回は面白い記事があったのでシェアです。
「人間は終わるんですよ、その中で生きていくしかない」
川上量生氏(ドワンゴ代表取締役会長CTO)インタビュー、聞き手 今井拓司、進藤智則、中道理
日経エレクトロニクス、日経BP社、2015年2月号、pp.93-97。
http://techon.nikkeibp.co.jp/article/MAG/20150114/398841/

[17]
楽譜作成のための音楽記述言語。細かい調整や自動化を行なうにはScheme(Lispの方言のひとつ)のコード断片を書く必要がある。S式はLisp独特の記述方式で、括弧を多用するなど特徴的な見た目により他言語話者からは恐れられる。

仲條
この数ヶ月で人工知能に対する危機感をもった記事が急増した気がします。
それだけ現実の特異点がどんなものになるか[18]見えてきたということなのでしょうか。

ご紹介いただいた記事で川上さんは、UGC(User-Generated Contents)とは誰もがクリエーターになれることだ、として、それを実現するためにみんなが「車輪の再発明」をやって、互いに古いとか他の誰かがもうやったとか言わない環境が必要だと、それがコンテンツの世界の合意、機械がコンテンツを作る時代の回答だ、とお話しされていますね。
私はもうずいぶん長いこと、この点について逡巡しています。CGM(Consumer-Generated Media)という単語がビジネスシーンに出てきてからはその方向に確信をもつ一方で、やはり自分が作り手の側の人間であることや、教育、研究に関係する面では、後ろ髪を引かれる思い[19]が強まりました。

また、人間がコンピュータに負ける、人間の仕事がなくなるという話の中で、全てのコンテンツはクリエーターにインプットされたもののアウトプットであって、大衆性を獲得できるかどうかはビッグデータを使えば解析できるだろうから、時間はかかるだろうがやはりいずれ人間の分野ではなくなると予想されています。そこに残されるのは自己満足の独りよがりな芸術家だけ、ということですが、これは選択の余地があるとしたら、大衆性を獲得しなければ無であるが、その無は満たされているというような二項の問答になって、比は100でも1000でも結局勝敗は1か0かのデジタルな話ですよね。この話になぞらえると、価値観の多様性はロングテール、またはファットテール的な連比で示すことができて、その各項が徐々に陥落すると、いずれは1か0かになってしまう。

川上さんは「車輪の再発明」に桜をめでる例を出しています。それは桜いいよねっていう価値観や、桜がどういいかっていう評価軸の再発明と言えるんじゃないでしょうか。つまり先のライブの音の話のように、楽しみ方には色々あって、同語反復を恐れなければむしろ広がる話だと思います。作り手の側にはそうした価値観や評価軸をどうやって提示するかが問われていて、もちろん可能なら新種の桜を再発明してもよいでしょうし、何らかの共通言語を介して孤立しないことで作れるものもあると思います。

[18]
量子コンピュータに匹敵する性能
http://www.hitachi.co.jp/New/cnews/month/2015/02/0223b.html
量子力学を応用した未来のマーケティングシステム
http://wired.jp/2014/12/15/scanamind/
[19]
トニー・ヒル「車輪の歴史」
http://zkm.de/en/media/video/a-short-history-of-the-wheel

池田
改めて読んだらちゃんと紹介しないわけにはいかなそうだったので、このドワンゴ川上量生氏のインタビュー記事ですが、まず私は知らなかったんですが「シンギュラリティ」提唱者のKurzweil氏が、シンセのKurzweil社の創業者なんですね。で、高校生の時にコンピュータ作曲で有名になっているという。一体何なんでしょうかね。やはり本来人間の営みとされている音楽を機械化する、などという発想自体がぶっとんだ思考の上に出てくるものなのか。とはいえ、その音楽もそもそもは天体の音楽だったり宗教活動だったりして、天体の音楽とかいう発想も、改めて考えると結構やばい。その意味では音楽は元々人間的でも何でもなくて、むしろ機械とか非人間性と相性が良かった。

ぶっとんだ思考例 https://www.youtube.com/watch?v=FFvFlpVjEjM
元祖 https://www.youtube.com/watch?v=94d_h_t2QAA

もう一つは、知能では確実に機械に負けるが、人間社会におけるインターフェースをまだ機械は持っていなくて、それは五感とか身体、人間関係における諸々の接点という意味のようですが、人間の生存にとっては知能よりもインターフェースの役割の方が強いというお話で、なるほどそれならば我々はインターフェースの問題をやっているのかと。コンピュータ音楽というと装置の方のUI(ユーザーインターフェース)が注目されがちな気がしますが、オーディエンスとのインターフェースということで、パフォーマンスについても同様に考えられるでしょうし、このディスカッション自体もそうです。それだけだと別に大した事は言ってませんが、例えば機械に代替されないためにはどうするかなど、課題がいくつか見えて来そうです。

仲條
長年メディアミックス展開を推し進めてきたコンテンツホルダーの角川と、n次利用のアングラな壁を越えて大きくなったネットメディアのドワンゴが一緒になるというのは昨年の大きなニュースでしたね。

UIからUXへとビジネス上のキーワードは動いて、ここ数年のクラウドやビッグデータも作り手と受け手が相互に作用する、そんな流れでした。人間の物理的な動きについても、かつてユビキタスと言ってた時期もありましたし、概念的なノマドなんて複数の分野で複数回繰り返されてきてるんじゃないでしょうか。こうしたITビジネスって、この半世紀位の期間に一気に加速して大量のキーワードを生み出しつつ適者生存が試されてきた分野ですよね。ステルスマーケティングがステマとして騒がれる何年も前からマーケッターはそれをやるべきか否か議論していたし、迷っているうちに我先にと先を越されて雪崩を打って、ということも数多くあったんじゃないでしょうか。

ムーアの法則の延長上にシンギュラリティがあり、そこに至る宿命論は単独だと一直線の、リニアな変化に乗って突っ走ってしまうわけで、もちろん近年のようにCPUのクロック上限競争で息切れしたりもするわけですが、今度はプロセスルールを変えてクロックを落とした効率化と省電力化が進み、拡張し吸収した部品までひっくるめて加速しつつ、さらに拡張しようとしている。

楽器メーカーの方のKurzweilは最初の製品がK250というデジタルサンプラーで1984年。これは88鍵の大きなシンセサイザーで、同年発売された初代のMacintoshをインターフェースとして使うことができました。どちらをコンピュータの本体と呼んでよいやらという感じですが、この時期のフェアライトCMIやシンクラヴィアやPPGは大体同じ状態で、クライアントとサーバーのような関係にコンピュータとしてのインターフェースと楽器としてのインターフェースの両方を持ったワークステーションが競争していた。

人物の方のKurzweilさんが高校生のとき出演したテレビ番組はいまYouTubeで見ることができます。
https://www.youtube.com/watch?v=X4Neivqp2K4
上記4製品の中でKurzweil社は後発なんですけど、面白いのはこうしたエジソンやベルやテスラのような発明競争が発明家個人やその会社の利益に立脚しているのに対し、GNUはメーカーの権利に縛られた状態から離れてオープンソースで開発主体へ戻ろうという思想であるのに、これもまた音楽が由来です。名前の読みで、ぐぬー、の、ぐ。
https://www.youtube.com/watch?v=YqgPyqyh4X4

電子音響音楽における英米は様子が異なるんですよね。ナイマンの「実験音楽」(1974)はとてもよくまとまっている本なので、当時からよその様子はちゃんとわかっていたはずで、その上で大衆性を重視してきたか否かの違いなのか、いや、その重視の仕方が違ったのか。
Kurzweilさんのテレビは1965年のアメリカ、こちらは1969年のイギリス。
BBC実験音楽教室
https://www.youtube.com/watch?v=hsigOnPJTtA

上記のように項を増やしていって対比しましたが、メディアやコンテンツについても、最近だとオウンドメディアという語がありますけど、例えばこれにはパブリックドメインを対比して考えてみたらよいのではないかと思います。それもあくまで相対的な話であって、どちらもシンギュラリティに向かうなら三項目、四項目と追加していって、結局1か0の1の方が拡張吸収してきたわけですから、接続して吸収されたインターフェースのナンバリングみたいなことに汲々とするよりは、こちらも適用し適応することで目的に適した使い方という、用途の自由度は確保できるんじゃないでしょうか。

道具との関係

大谷
音楽的に、実装(プログラム)とGUI(or UI)と演奏( or 楽器)という三つの関係が影響して表現が変わるということもあるかとおもいますが、その辺はいかがでしょうか。SuperColliderはコマンドライン時代からはじまり、ネットワーク機能やUI、サーバー機能が実装され、いまでは映像もできるわけで。たとえば、池田さんはいつもリハーサルが終わった後も、ヘッドフォン(イヤフォン)つけて確認練習されていらっしゃいますよね。そこで諦めないこと、折り合いをつけていることというのが、プログラムとの関係の中であるのではないかと。
コンピューターミュージシャン特有の感じでわかるような気がするのですけど。興味があります。

池田
ナイマンの「実験音楽」死蔵中の池田です。
シュトックハウゼン音楽論集とか、最近は見つけたら買うようにしていますが、紐解くのはいつの日か

子供のための実験音楽教室、先般のスコラ電子音楽編を思わせますね。子供に道を誤らせるのは実に良い。無調ぽい音形を叩かせるあたりもいかにも前衛の時代という感じで、これまた良いです。

道具との関係で表現が変わるというのは大いにあると思います。いつも言う事なのですが、私の場合は、こういう音が欲しいと思ったらまず「思った通りの音が作れたためしがない」のです。より正確には、音を出すためのアルゴリズムとその結果は割と容易に想像がつくのですが、「欲しい」みたいな感情と共に出てきたイメージはまな板の上でいじくりまわしているとあっという間に死ぬ感じがあって、これが取り組んでいて全く楽しくない。

頼まれて作る場合などには苦労する要因でして、その場合はとりあえずあまり深く考えずに何パターンか提示して様子を見るなどするのですが。あと音符書きでも、これだーと思って書いてみると100年前のヴァレーズのあの曲でしたとか、こういうのはもう洒落になりませんが、ともかく音から発想するというのは、自分にはほとんど無理だと考えています。音とアルゴリズムが同時に出てくれば出来る。しかし本来こういう人間を音楽家などと呼べるのかが甚だ疑問です。

ともあれ、何しろ手を動かしてみないと何一つ、実現可能かどうかすらわからない、というのは楽器の演奏とも少し似ている気がします。一時期、川端さんや久保田晃弘さん、ギターの梶井さんという方々とバンドを組んでいたことがありまして[20]、その時に久保田さんが、楽器は毎日基礎練習をするようにコードも毎日書くと仰っていて、なるほどと思ったことがありました。プログラミングはインプロとか、あとバックアップは3箇所に取れとも言ってましたが、それはさておき金管は1日サボると3日退行と言うように、コードもしょっちゅう書いてないと確実に書けなくなる感じがあります。

ケージはプリペアドピアノの再現性の低さから偶然性に向かいましたが、コンピュータ音楽もイメージと結果が常にずれているというあたりから、起こった事を受け入れるみたいな心構えになっていくのかも知れません。とはいえコードを書いていると、ここはもっと簡単に書けるなどと言った問題点は明らかに目で見えるので、ひたすら書き方を云々するうちに自動的に別のアイディアが出てくるなんてこともありそうです。このあたりはイメージならぬ人工言語の強さでしょうか。

ある時、コンピュータから電子音が出ても別に誰も驚かないと楽器の人から貶されたか何だかされたことがありましたが、実のところそれはその通りで、スピーカーから点の振動を出している時点で生楽器の情報量と立体音響には負けているのだから、元々貧相な音をどう面白がるかという数奇者の世界に突入するのかも知れません。そうこうするうちに、私などは最近では、別に音である必要もないのか、となりつつありますが、もしコンピュータが楽器であればこんな邪悪な考えには辿り着かなかっただろうと思います。

[20]
http://www.soundispatch.com/ttsnews/previous-events/test-tone-vol-25/ 

仲條
楽器も開発され使われていく中で改造され続けて、改良だと思ってたらその価値観が違ってたのでちょっと戻り、また改造して亜種を生み出してはその系譜が続いたり途切れたりしながら、次はピリオド奏法で使うために再度以前の設計で作られ、というようなことがありますからね。TR-808や909なんかでもそうで、Rolandが頑張って、次のR-8は1/fゆらぎでファジィでヒューマンなグルーヴだよって新発売してるのに、分解能が16-32しかない旧型の四つ打ちが好まれて取引価格が急騰したり。道具の発明と用途の発明は一致しないことって結構あると思うんです。安野太郎さんは掃除ロボットの排気を利用するに至りましたが[21]、現行の製品が改造されゾンビとして再生してくる位ですから、ゾンビの導きはあのルンバの動きのように、壁にぶつかりながらどこに向かっているかわからないようでいて、実はシンギュラリティに向かっていたりするのでしょうか。

昨年、池田さんと山崎阿弥さんの「音の身体を興す音 魔方陣と召喚獣」[22]を拝見して、その後感想をメールでお送りした際に頂いたお返事の中でInterdisciplinary Artという語が出てきて、Intermediaを経由して、そういえばU::Genの4か5でご一緒したときにケージの「ミュージサーカス」[23]の話をしたな、と。
そこから20年程前の水戸芸や新潟の公演へ記憶は遡り、また別の機会に小杉武久さんのワークショップに参加した際のことなど思い出してみると、山崎さんとの公演のような、同時多発的な状況が積み上げられていく中で一本の時間の上を非連続的に渡り歩いていこうとする(そしてそれがうまくいかない)ことはあらためて面白いなと。会場では資料が配布されていて、公演中はさらに多種多様な情報に曝されるわけですが、それで全部わかったか?というとわからない。大変興味深く拝見しました、と言えば無難なのでしょうが、そうじゃなくて、例えば「ロープに括りつけたペットボトルを銅鑼に当てようとしているらしいのだが、なかなかうまく当たらない」状況というのは普通に面白いですよ。それをどうにか「演奏しようとして」いるという点では、「電気音楽奉納会」[24]で電球がピカピカ光っている状況をやはりどうにかしようとする池田さんの様子は撮影せざるをえない。U::Genではvol.5で池田さんが銅鑼と振動スピーカーをl-eのマンホールに設置されて、その効果があまりに印象的だったことから次のvol.6の企画が大谷さん発案でタイトル「突然マンホール」[25]になったという経緯がありました。大谷さんの次回の計画も、ダダのナンセンスをやってみたらInterdisciplinaryだった、Intermediaだった、というような可能性があるのかなと思っています。この人は一体何をしているんだ?と思わせる情報をその場にいる人に入力して、印象を出力する、さらに次の結果へと繋げていく、という点ではこれもインターフェースの話なのかも知れないですね。

[21]
http://creatorikusei.jp/?p=2345
[22]
http://bodyartslabo.com/wwfes2014/festival/yamasaki-ikeda.html
[23]
http://aaa-senju.com/2012/2314/
[24]
http://www.tochoh.com/event/22724
[25]
http://eleclab.tumblr.com/post/44852175956/u-gen-laboratrium
http://www.l-e-osaki.org/?m=20130322

池田
インターディシプリナリーアート、インターメディアという語が出てきました。ディック・ヒギンズの「インターメディアの詩学」も未だ拾い読みした程度ですが、マルチメディアとかミクストメディアと呼ばれるような、音も映像もダンスもありますみたいな設定ではなくて、既存のどの分野ともつかないものが事後的に発見される、やってみたらそんな感じだった、というようなお話だったかと思います。だからのっけからインターメディアを目指すと言っちゃうとちょっと変で、意図的にやろうとしたら頭のネジを常に2,3本外しておくとか、見えないものが見えるみたいな方向に思考を持って行く必要があるかも知れない。これはあくまで私の解釈ですが。

例えば音響詩は、音響でも詩でもなくて、強いて言えば音響と詩とが概念的に融合しているのだと。映画にしても、写真技術と時間芸術が融合して出てきたと言うよりは、何だかわからんが映画とでも呼ぶべきもの、みたいな状態から始まったのだと思います。複数のメディアの間にある(inter-)という事ですから、既存のメディアの文脈では捉えきれないし、一見するとわけがわからない、というのが第一印象としては正しい。これは作る側も同様で、わけがわからないことをするというのは、自分自身に対して謎かけをしているのと同じです。なので当然ながら、答えはないし、見る人の側でも答えを探して欲しいと思っています。

映画と言えば、先日あるイベントで[26]大谷能生氏がエジソンとリュミエール兄弟を比較していたのですが、もう一つの映画の原点とされるエジソンのブラックマリア作品[27]があまりにシュールで、当時お金を払ってこの棒体操なんかをのぞき穴で見物していたとのことですが、現代の映画から見ると現象として謎過ぎる。とはいえCGMの時代になると、個々人のディスプレイで「踊ってみた」[28]など見るようになるわけで、リュミエールを始祖とする映画の正史からはほぼ意図的に無視されて来たエジソンが、今再び本気を出してきたとでも言いますか。もとよりエジソンがぶっ飛んだ人物であったことは皆さんご存知かと思います。

この話も何度かしていますが、クリスチャン・ウォルフの「石」[29]という作品を鈴木悦久さんと二人で演奏した時に[30]、できるだけ大きな石から小石まで使って、言わば石を演奏する"以外"の行為に、15分だったか20分だったか、終始したわけです。楽譜には「石で音を作れ、石の音を引き出せ」等々と書いてあるのですが、実物を動かしていれば勝手に音が鳴ったり鳴らなかったりするだろうと。お客様の反応は賛否両論で、我ながらよくやったと思いました。

確か公演後に、一応CDなども聴いてみたのですが、これは大して面白くなかった。ウォルフも書いているように増幅すれば少しは違うかもしれないが、コンサートホールのような場所では音量とか音色的に厳しい気がします。座禅を組もうとして失敗したみたい感じというか(ひどい)。最近ではいくつか動画も見られますが、行為のモードが演奏に限定されると見る側としても結構厳しい。若者はうなだれておるし。あくまで解釈の問題ですが、「石で演奏せよ」とは書かれていないんですよね。それで、演奏という考えを外してしまうと、今度は可能性が爆発するわけです。楽器ではなく石ですから。それで破壊的な事はするなという意味の文言が最後に書いてあるのだろうかと思いますが。

石はコンピュータとはかけ離れた存在ですが(昔はCPUのことを石と呼びましたが、最近はどうでしょうか)私がコンピュータで何かする時に必ず念頭にあるのが、この時の演奏なんです。もはや原点と言っても良くて、名古屋でやった「テーブルの音楽」[31]は明らかに「石」の影響から出てきたものです。メディアアートぽいという評価も頂きましたが、それ風の洗練ということは全く考えてなくて、一応音も鳴っていますが、極端に言えば演奏の手がかりとか、パフォーマンスを鼓舞するものでしかない。あのような演奏装置を作っておきながら、物はひっかき回すし、ウェブカムの画角の外でも何かやってる、というのが自分としては外せない要素だったりします。こういう、何ともつかないような状態でもってある一定の時間を占める、というのが自分にとっての作品の定義かも知れません。

今回の企画は今後シリーズ化するようですから、ここで結論を出すつもりはなくて、むしろこのディスカッションを叩き台として再び14日にお話が出来ればと思います。特に答えは決まっていませんので、ぜひ実演もご覧いただければと思います。どうぞよろしくお願いします。

[26]
http://www.uplink.co.jp/event/2015/34993
[27]
https://www.youtube.com/watch?v=kNRsPWDl7PM&t=20s
[28]
https://www.youtube.com/watch?v=dhoR70AJjRc
[29]
http://www.frogpeak.org/unbound/wolff/wolff_prose_collection.pdf
[30]
http://www.purple.dti.ne.jp/naya/contens/event/081013Cage/
[31]
https://vimeo.com/19090521 

仲條
一項の数字による評価が帰納的な話になってしまうと、そこからの楽しみ方は限定的な傾向を拭いきれないですからね。しかし接点を増やし、その都度自分の持つデータを参照しながらその場に適用し適応していくことで楽しみ方の再発明を行い、価値判断は自分で行う、これは疑問をもったり、楽しんだりすることから始まる演繹的な話で、音楽を作り演奏し聴くというプロセスのどこでも起こりうることではないでしょうか。幸いU::Genは出演者と観客の距離が近く、持ち寄ったアイディアやその場の感想を自由にやりとりできますから、思いつきは歓迎されて、何だこれは、ということも起こります。その中でわからないということも一つの項であって、やってみたらこうなった、見てみたらこうなった、聴いてみたらこうなった、そうして何かの発見になると項は増えていきます。インターフェースが人との接点であるなら、コンピュータから音楽で接点を発生させるのがUGen(Unit Generator)です。次回U::Gen vol.13で面白いことが起きるのを期待しています。

Copyright(c) 2015 U::Gen Lab 池田拓実 大谷安宏 仲條大亮 文章・記事・画像の無断転用を禁じます

U::Gen Lab Ikeda Takumi , Yasuhiro Otani, Daisuke Nakajoh All Rights Reserved.