2/14/2016

[&] FITC 2016 - Yoichi Ochiai



FITC Tokyo 2016 Day2
----------------------
Pixels towards Pixies
with Yoichi Ochiai
----------------------

http://96ochiai.ws

さて、今日は、Pixels towards pixels
現象論に従った感じで話していきます。
ある固定された平面から三次元に展開していくことが大事。

コンピュータの研究者で SIGGRAPHで活動しています。
人間がどうやって描くのかをやっています。
World Technology Awards 2015 を受賞しました。

ライフラークで何をやっているのか?
映像が発明されてから、次のコミュニケ−ションや次の
情報伝達を物を着きながら考えています。
キネトスコープは、エジソンが作って、ヘッドマントディスプレイ
のようなもの。
リミュエール兄弟が作ったキネマトグラフ、
多人数が同時に観れる方が売れるので、キネマトグラフの
法が商業的に成功し、

二次元の映像装置は、普及してしまったので、
没入できる方が受けるかもしれない。

ラスコーの絵画から、その時代から、イメージを共有するのか、
伝えていくのになみなみならない情熱をもっていた。

カメラオブスキュラ、大きなレンズがあれば、
外の景色が映るという古典的な映像装置。
眼鏡がでてくるのが 13世紀、15世紀ぐらいで望遠鏡。
古典的な幻灯機は17世紀ぐらい。
騙し絵もこの時代に発明されました。
産業革命の後ぐらいまで、物理現象として物を観るのを発明し続けていました。

セカイノオワリの舞台装置への協力。
ゾートロープを3Dプリンタでつくるとか、
映像装置をどう再定義できるのか?というアート表現

1827、エニプス
写真が撮れるようになった。
ゲレオタイプ 1839 銀版写真が撮れるようになった、
印象的絵画が意味を持つようになってきた。

映像を例に出すのはなぜか?
エジソンって、メディアアーティストだと思う。
リミュエール兄弟は、映像装置を作って、映画を作った
最初の世代、メディアアートの側面がある。
エジソンは、蓄音機、電球、映像装置も作っている。
エジソンは、エネルギーをどう人間が使える形に変換するのか?
エジソンは高等教育を受けていなかったので、直流で表現していた。
発明するものをジャンプさせながら作っていったので、
メディアを作って、メディアを作ってきた、
コンテンツの無い発明。

エジソン、蓄音機を発明したのですが、音楽に使われることを
嫌った。

メディアの装置とコンピュータの装置が合致してきた。
1937年、クロードシャノン
スイッチが開くのと、スイッチが閉じる、
スイッチで全て解けるというもの。
リレー回路を作ってみたもの。計算をしてみる。
デジタル計算機の初めのもの。

大学のころ、すごい興味があって、
今あるブレッドボードが、通電状態が、コンピュータで制御できると
面白い。
中に半導体がいっぱい詰まっているので、
電圧を見ながら回路をつくったら面白いと思った。
昔はスイッチで O/1 を作っていたが、
ビットから、サーキット、ビットから形をどう生成するのかが重要
2008年ぐらいからそう思っていて。

アイバンサザーランド 1963 ライトペンで書いている、
最初のヘッドマウントディスプレイを開発していて、
映像的な処理、絵を描くことをコンピュータをつかって実現している。
コンピュータがマルチメディアを扱ってきたのは 1972 年以降

ALTO というマシン、このマシンで 3-4000万円したと思う、
理想的なコンピュータがあったら、子供が絵をかいたりするんじゃない。
人間の知的なものを拡張できるのではないか?と思っていた。
それが今まで繰り返されてきた。

マークワイザーが書いた論文で、
今から25年前、
やがて高度に発達した無線網があれば、
デジタルとアナログを区別なく使っているだろう。
The Computer for 21 Century , Weiser, M 1991

これから何をやっていくのか?
それが僕の問いです。
僕が課題だなと思っているのは
画面の中でできることは大抵なんでもできる。
とんでもなくリアルなこと、仮想的なことはなんでもできる。

「動画」

画面の中で計算できることは大抵なんでもできる。
その中で、次に何をしてなければいけないのか?

画面は目の解像度によっている。
1080P, 60fps だし。
音は 22.1 Khz だし、人間の生首を配布して、
人間のポケットにインストールして、
人間が見ている世界を配布しているようなもの。

もっと強度が高い、解像度が高い、
どっやったら、三次元で表現できるのか、
20代の自分のライフテーマの一つです。

「動画」
プラズマで空中に絵を描く。
500ミリワット、iPhone の裏についている LEDと同じくらい。
ホログラム的に合成することで、空間にどう絵を描くのか?
耳で聞こえないような音波を出すことで、
物が空中で動くことを研究しています。
コンピュータを使ってどう拡張すれば、物証的な世界にできるのか

なんでこういうことをやっているのか?
ノーベル賞的なことはすべて1970年くらい、
コンピュータシミュレーションして音場を
実際に形として作り出せる時代。
今はプログラミングして作ることができるようになった。
場や空間を制御をどうするかがトレンド

物じゃなくて、付箋やそろばんがどう自ら動いてくれるのか?
どう空間自体を UX 化できるのかを考えている。

コンピュータジェネレイテッドホログラム、
波動で記述された形を定義できるのか?
フーリエ変換の像を具現化する。
同じライブラリを光や音で使う、ハードウェアだけ異なる。
音でどうにかしたものを光でどうにかする、
タッチパネルを光や音で実現したい。

ヘムト秒レーザーは、やけどはしない。
どうやったら、その抵抗の部品を
飛んでくるのか?物理空間を移動だせるのか?
ロボットアームで運ぶのは大変です。
エネルギーがそんなに稼げないけれど、見えない触手みたいなのが
作れれば。

プロジェクターはずっと二次元なんです。
そうじゃなくて、対処の点に、光や音を集めるために
どういったパターンを集めるのかを設計します。

ホログラムは、ガボール 1947, ガボールフィルターで知られています。
最初はレーザーがなかったので、位相と強度を記録する
立体情報を記録できる。

ホログラムだと、今まであった、位相を記録できるようになったのが、
大きいところ、それをコンピュータで実現できるようになった。

ホログラムを映し出すので、一番高価だったのは、ドンペリでした。
ある液体があって、ショックがあると、炭酸がでてくる。
炭酸にレーザーを打ち込んでも、
このディスプレイを保持するのは一時間に35万円かかるのですが...

焦点面に像を結ぶことができますが、
ホログラムは、像を混ぜ合わせることができる。
ホログラムのいいところは、フーリエ変換してピントをもってくると、
一枚のビームが通過しているのだが、スクリーン面によって、映像を
変えることができる。三次元でどう投射するかに興味がある。

光で描いているものも、音も同じ、
流行るかな?

筑波で研究しているのはDigital Nature
なんでそういう発想になったか?
レンズを使って、対象になるのか?
レンズ自体は、紀元前からあって、人間の目もレンズ、
我々は同じような原理、超音波、
自然にデジタルなもの、デジタルで自然なもの、
デジタルネイチャーという世界がやってくるのではないかと思った。

物質と映像が区別がつかない時代になってくる。
人間にとってどういう意味がある?
コンピュータから出て来たデータが触れたりすれば、
人間と映像の区別、イメージと形の区別もつかない時代になる?

コンピュータはリアリティに関して脆弱性がある。
AR は 1991 年。
リアリティって現実の言葉、気にしなくても大抵のものは
コントロールできる。コンピュータが物理空間に強くなっている。
データの表質として存在する。

ピクセルからピクシーに。
妖精は悪さをしていくが、目に見えないけど、形のようなもの。

ロボットとか、IoTとか、3Dプリンタとか流行っているし、
物質でもイメージでも無いもの、
ある瞬間消えるけど、物質的振る舞いをあるものを作っていくことに
興味を持っている。

シマウマなら、白地に黒なのか、黒字に白なのか?
身体とデータは別なのか?
人間から観察した自然?
メタネイチャーはデジタルデータじゃないのか?
人間にとって特別な空間ではない、
コンピュータの食う有漢、

人間の感覚の逆行列に興味があって、
ざらざら、つるつる、どう記述されているのか?
木と紙の違いは?

人間が目でみる質感の違いは?
どう定義されてるのか?錯覚で一致していくのか?
人間の感覚に大きく影響をあたえているのか、
人間がどう分析して処理しているのか?

人間の頭の中ある処理と物質を変えていっている。

デカルトから、勉強していて、
世界って魔術化するよねと言っていて、
行為と出力は、プログラミングで実現できる。
中身がなんだかわからなくなっている。
コンピュータによって記述されるのは魔術。
一つの条件にしかすぎない。
否定的に受け入れれば、機械が人の仕事を奪ってしまう。

物質的な現象、人間の逆行列を再定義していくと、
現実のものが価値をもってくる。
メディアのことは特に意識しない。

虚構の空間だけで起こるようになる。
リアルとバーチャルが区別されたところから、
境い目がなくなって、現実空間であらゆることが起こる。
映画館のメタファーがあっても、
皆が違うことしていてもいい。
この世界の価値観からいってもシンギュラリティー
コンピュータがコンピュータを使っている。

現象を構築することが知覚と理論を超えていく。
人間が理解可能な数式で世界を描くのではなく。

TensorFlow で白黒映画がカラーになることは、
脳みそでは理解できない。そうなった時に、
言語を超えて、何を共振化していくのか。

3Dプリンタの面白いところは、
あらゆる物質
空間は情報のサブセットにしかすぎない。

この世界でデジタルに最適化されたものだけになっていく
映像から音を復元する研究
映像の微細な振動から音を再現できる。

こういうことが増えてくると、あらゆることが制御される。
桜の花びらが、気に入らない。

研究者がスタンフォードバニーが 362,272
ショウジョウバエは 180million 遺伝子がどう機能しているのわからない。
逆学習を機械学習でやっていくしかない。

一番気に食わない言葉は、リアリティー
リアリティーは人が観測する現象にすぎない。
みんな違ってもいいよね。
それって全部ユニバーシティ

アーティストから、プロトタイプ、マーケットのループをどう作るのか?
宇宙空間にどう場を生成するのかに興味を持っている。

アーティストはアーティストらしく生きる?
手段を選ばす、わくにとらわれずに行動していくのが面白い。

フィルムの代わりに物体を置くことで
次の世代というのは、
僕の世代はピクセルの時代。
今の子供たちは、リアルとかバーチャルとか違いを感じない。

今、一番やらなければいけないのは、
技術であれ、時間であれ、直接コントロールする、
どうやったら、人間性を捨てられて、メディアに回帰できるのか。

graphics はメソトロジー
existence
intensity
spatial distribution
time distribution
or Computationable Units

その先にデジタルネイチャーがあって、
映像から物質に変わっていく。
光と音ぐらいから、ピクセルになって飛び出してくる。
未来は人x労働力なので、早く未来が来るかもしれない。