8/28/2014

[&] Design dot BEENOS Vol.3 - freee (sousuke sekiguchi)



Design dot BEENOS Vol.3
「会社の成長とUXのスケーラビリティ」
freee UX Director 関口聡介
http://designdotbeenos3.peatix.com/

クラウド会計ソフト freee という会社で、UXディレクターの関口です。
すばらしいオフィスで、なんて綺麗な見晴らしの良いオフィスなんでしょうか。
いろいろちょっとありがとうございます。
この話しが来た時に、どんな話しが聞きたいのかわからなかったのですが、
僕がやってきたこととか、多少 UX の話しとか、懇親会で話せる内容につなげていければ。

今日ってどれくらい話せばいいんですか? 1時間と言われ、
一応用意はしてきましたが、かるく 20分くらい。

今日は、ほぼほぼ私がやってきたことを
UX的な視点から話します(たぶん)
スタートアップに関わる UX,
自己紹介。UXおじさん。どう振る舞ったりすれば良いのか。

クラウド会計ソフト freee フリー、話題のスタートアップ。
調度エンジニアが 20人ぐらい、全部で 4-50人、
ローンチから1年でこれくらいなので、急成長かなと。

2000年〜
なにを勘違いしたか、起業する。
どういった会社か? CGを作りながら、事件の再現CGみたいのを作って、
テレビ局に納品するという仕事をやっていました。
本業は 3DCG とかビデオパッケージを作るお仕事。
おいしいごはんを食べていた時期がありました。

短い映像素材って数秒とかの短い間に
視聴者の眼が一瞬でどこにいくとか、
そこで何をアピールするとか、
結構今のお仕事に通じるところがあった(気がする)。

ユーザーが画面や操作ボタンを見て、どういうふうに認知しているのか、
そのころから興味をもって、進めてきた。

なんだかんだあって、2007年 Google に。
当時は、日本オフィスに UX チームが無くて、渋谷オフィスで
200人ぐらい、唯一 UX デザイナーという肩書きで入り、
そこで仕事を始めた。NYには UXチームがあって、
その頃はまだ小さいチーム。
デザインに関しては、それぞれの国で、マーケティングが外注したり、
思い思いに進めていったころ。その頃の日本オフィスに居たので、
プロダクトマネジメントが5人くらい居るチームに入って、
彼らから要件があれば、画面のUIを作るのが Google で最初にやった仕事。

当時の Google は、今は失われてしまいましたが、
組織図を持たないというポリシーがあって、
小さなエンジニアのプロジェクトの何人、このプロジェクトの何人とか、
うまく機能していればいいという考え。なんというかプロセスなきプロセスという
カルチャーを持っている。

とはいえ、Google は設立して8年経っていたのですが、
そういう感じで機能していた。
そのへんはエンジニアの個々の意識の高さが寄与していて、
そういうのを採用の時に、ハイレベルで採っているのですが、
グーグルらしさを凄く重視する、そういうところが、有機的につながっていくのに役立っている。

実は 2007年に Google に入って、その前にサンマイクロシステムズに居て、
サンも良い会社で良い人材がたくさんいるのですが、Google の人材は圧倒的に凄かった。

あえて、組織化しなくても、個々が意識を高めて大局を見ながらやっていけば、
いい組織になるんだろうというのを見据えてやっていくのが理想かなと。
Google は何千人も居るのにスタートアップに近い。
freee に入って、またそのことを思い出している。

2007年、Project Yebisu のお話し。
いろいろやったのですが、これが大きなお話し。
名前からわかるように、日本オリジナルのプロジェクト。
当時検索のトップページが真っ白。一日に 9000万PV,
これを日本向けに改修するプロジェクト。無理..... ほんとうにそんなこと出来るの?
世界中どこにいっても Google のホームページ、真っ白なのが良い。
ブランドイメージの象徴であった。それを変えようというプロジェクト。
シンプルだけど重いプロジェクト。

プロジェクトのゴールは、
アメリカや Gmail やカレンダーも伸びていて、シェアを奪っている状況だったのですが、
日本の市場において、すごく弱い。2007年の頃は Yahoo! Japan の後塵を配していた。
Yahoo!風が好まれていて、検索広告で儲かっていたが、
会社のビジビリティ、プロダクトディスカバリビリティを上げる。
トップページに来た人は、Gmail やカレンダーを出して、
知ってもらおうとしたのが Yebisu プロジェクト。

当時 9000万PV を改修するのが辛くて、
ひたすらモックを作り続ける日々。
慎重に検討し、なんとか良いもの.... というスタイルで始めましたが、
とにかく出していって、それを良くしてばいいのではないかとマネージャーに言われ、
アウトプットの大切さを学びました。

アイトラッキングは魔法のツールだった時代、
世の中にはやはり魔法なんてなかった。
やたらとコストがかかるから魔法扱いだったという説も。
当時は、それさえやれば、テスト結果がばっちりという考えがあったが、
アイトラッキングからはそんなに得るものは無かった。

いろいろやってみた結果、
こういう画面を最後にうっかり出しました。
微妙ですよね。
白いページにこだわりをもっている人が多く、
プロダクトやリンクをつけたりしましたが、結果としてこの辺に
落ち着かざるを得ない。半年ぐらいたって、この画面にたどり着きました。



トップページとして、1年くらいこのページでした。
Google 急上昇ワードとかも表示していました。
100ぐらいのモックを作ったと思います。
最終的には Google も今見ると分かると思うのですが、
プロダクトのリンクが並んで、one-Google という名前だったのですが、
真っ白に戻ったのが最終的なオチです。

Mozc プロジェクトのお話し
一年後ぐらいに Mozc プロジェクトが始まりました。
Google 日本語入力。皆さん使ってますか?
この UIを担当しました。
この画面だけというわけではありませんが
裏にある設定画面とか、タブを押した何ミリ秒あとにサジェストを出すとか、
Google 検索とのサジェストとの関係とか、これはこれで時間がかかったプロジェクトでした。



ここまでが自己紹介です。

Google で働くようになって、2年目ぐらい。UXチームが日本にも出来ました。
Google 社内の UX ってどうなっているの?とはいえ、どうなったかというと、
それぞれ UX デザイナーが 2人、東京に入って、それぞれ担当範囲が決まって、
でも特にレビュー体勢ができたわけではなく、プロセスが決まっていたわけではなかった。
意見を吸い上げつつ、ひたすら画面を作っていくのをひたすらやるチームが日本にもできた。

UXで作られた日本人に合っていない UI を日本向けに最適化するのは
結構やっていました。
会社がどんどん大きくなって行く中で、リソースがどうしても限界があるので、
比例して増えていく、スケールしないなと。
でも、グーグルは仕事が増えていくのに、製品を良くだすのに、
デザイナーを増やさずに3人でヤルんですよ。
個々のエンジニアの意識が高いので、ガイドラインを提供すると、
ある程度ハイクオリティのものが出来上がってくる。
UX専門の部隊が手直しするだけで、ある程度クオリティを守りながら、
いろんな画面ができてくる。それが Google の社内 UX の学べるところでした。
どうしてもデザイナーは時間がかかるので、こだわりすぎて時間をかけてしまい、
専門知識も必要だが、ある程度のレベルまではエンジニアの意識を底上げ
してあげるだけで、学びがある。

ぶっちゃけ最初は思い思いに作っていて、
その思い思いのレベルが凄い。
UXチーム自体は組織としては無くなりました。
Map とか Gmail とか、Google+ とか、社内でプライオリティの高いプロジェクトが
一人一人アサインしていく、そこだけでやって、
他の小さいアップデートは、それまでにガイドラインを整備しておいて、
個々のエンジニアがやってしまう。最終的にそこまでできるとすごい。
UX は最終的に無くなってしまえばいいんだという考え。

さて、7年も Google にいたら.....
「飽きました」もういいよね。
Google 時代の友人、佐々木大輔。freee というのを始めた。
すごい面白そう。ここに居ても得るものは無いかなと思って、
共通の友人が結婚式で、久々に再会して、
UX の人が欲しくて、口説くことを決めていて、二ヶ月ぐらい悩んだ後に freee にジョイン。
今年の 2月。今年の 1月は有給を使って、freee でボランティアで、手伝っていて、
うまくフェードインしていった感じでした。

スタートアップだから新機能ばんばんリリースするし、
当然作らなきゃいけない画面がとくに多い。
デザイナーも居なければ、UI/UX の人間も居ない。
エンジニアが個々の考え方で実装していた。
エンジニアの資質は高く、人によってばらつきはあれど、
UIに体する意識は高い。

結構人によるじゃないですか。UIをないがしろにする人と、
変にこだわりを持つひとと分かれるじゃないですか。
会計ソフトなので、むちゃくちゃ機能が多いんです。
元帳を出すとか、簡単な機能から難しい機能まで。
悪くはない。最悪な感じは無いが、統一感が無い。
統一していかないとマズい。
そして画面を作らされる毎日が続く、
エンジニアの意識を底上げして皆ができるようにならないと、
このままいくと死んでしまう。
人を増やす?それは愚の骨頂。

その後、山田サンが来て、そんな毎日。
寝る間を惜しんでひたすら画面を作る日々。

まとめ:スタートアップで UX おじさんがやるべきこと。
結局、やっぱり人一人ができる、2人になったらこれができる、
追いかけていっても全く意味がない。
そこをなんとかするには、ガイドラインを作るとか、
UXの啓蒙活動をするとか、新しいチャレンジ、
毎月小さいユーザビリティテストをやっている。
あんまりテストを信頼してなくて、その回の4-5-10人くらいの
呼んだ人によって、ぶれる、そこにフォーカスしすぎないで、
それがエンジニアと共有できていることが重要で、一つの啓蒙活動。
ユーザビリティテストの内容は、テレビで皆で見て、
エンジニアの方にもみんなで居ながら、ああじゃないこうじゃないと議論します。

1.とにかく啓蒙活動が大事。
2. 仕組みづくり、どのタイミングでレビューするか?
手戻りを一回にするのを目標に。
3. 忙しいアピール。エンジニアがなんとかしなくちゃと思わせる。

皆さん出来上がっている組織にいるかもしれませんが、
一つの参考に。

8/15/2014

[&] SIGGRAPH 2014 - X-Men: Days of Future Past



Twentieth Century Fox Presents the Visual Effects of “X-Men: Days of Future Past”

Benoit Dubuc, Animation Supervisor, MPC
Lou Pecora, VFX Supervisor, Digital Domain
Adam Paschke, DFX Supervisor, Rising Sun Pictures






■Rising Sun Pictures
PENTAGON KITCHEN のシーン
1 small room
familiar objects
dozen cast
choreogralhy

Existing tech & methodology
Smarter PLANNNING
PARALLELISM

PreViz は 3rd floor 担当。
ceramics &glass-ware
cookware & utensils
organics などの表現
CG prop doubles, CG による置き換え
add visual density
non- subjective surfaces
set the precedence for FX

LAYING OUT - THE ROOM
logical group & events
proxy camera captures
coverage heat maps

LIGHTING
one small enclosed nvironment
on-set photography, witness cams & data
spatial variety in contrast
one central light rig
GEOlight ( reproj HDRI stacks)
overhead lighting control
bounce card / blocker
PROXYMITY LIGHTING CUES
reliance on calibrated HDRI to Macbeth-calibrated shot T/O

MANAIGING
Maya, Houdini, Mantra, NUKE
ライティングとFXは Houdini, 全てのレンダリングは Mantra

カメラ撮影しマッチムーブした映像からレイアウト
ASSET BUILD -> PROXY それらを
LAYOUT , Animation, fx, simulation , modeling を全てあわせてscene assembly -> lighting ->comp
plan for top level temporal control ( whole scene )

TIME SCALE
Rain & Splash
SIMULATIONS
Cue into familiar high -speed photography ハイスピードカメラで撮影した感じに
Visually unusual by nature
No hiding behind traditional charts
Based on real-time, real-world physics
Slow motion 3200fps references
Emit a droplet form a sprinkler head.

REAL-WORLDPHISICS
[REAL-TIME FX SIMULATIONS] -> User-APplied Time-curve pre EVENT

Somotimes working with steppy proxyies before retime
More efficient gateways of approval
More complex rain.
More complex FXdetailing
More playful with time scalpe and velocity gags

FXTECH
Houdini の VDBsparse volume tools
For more light weight data
3 phases particularly suited to this kind of brief
Particle simulation
SDFvolume generation (voxel fittering)
Conversion to poly-mesh

WATER FX
Airborne droplets
Bench-top collision, crowning & dripping
Bullet Vortices
Environmental repersussions of Quicksilver's travel

rainTunnel
Atomisation
Tiny, highly detailed particle clusters, coupled with time-scaled, library splash events.

rainCurtain
Passing through the volume of rain

BOTTLE
Performance stabilisation
DIgi-double leg stitches
Multi-plate, mono & stereo stitching
Camera blends

■ digital domain
スタジアム破壊のシーン
428 shots
46 calendar weeks
242 people working on the who
19762822 Proc hours
165,518 hours

RSK Asset Build;
Texture shooting
Lidar Scan
Model Build
座席も一個一個。写真撮影したテクスチャを活用。
ドーム建築のコンクリートがぶつかり合って破壊されるところ、骨組みが破壊されるのを描画。
Liftoff shot builds

Drop FX Development
ホワイトハウスのリファレンス写真、サイズを把握してマッチムーブ
四方がグリーンスクリーンの高い壁で覆われた屋外で撮影。

1973 Sentinels に描かれているロボットをコンセプトに。
Practical Build & legacy
Look Develpment メカニカルパーツや、動き、
Boston Dynamics nおロボットの動きを参考に。
Jiggle システムでロボットが動作するような作りに。
ロボットの動く範囲を検討。首や腕、足の稼働範囲を把握。

Mystique の変身シーン
Lighting Look development
Feather Concept, 鱗のような表現、変身する際の売る子の動きを検討。
Feather Transformation Rig: 変身の際の鱗の動き個所のためのリグを作成
アニメーターが鱗が変化していく箇所、順番をコントロール可能に。
Feather Grooms
Body Blend Shapes

Wrap UP まとめ:X-Menのキャラクタをつかったふざけた映像....

■ MPC
The Future Sentinel の初期デザイン
オリジナルコミックのサイズを参照。
Mystique と同様に鱗をコントロールできるリグを作成。
顔から炎を吐く様子を検討。

ANIMATING THE FUTURE SENTINEL
歩き方はロボット風に。最初の動きはモーションキャプチャだが、最終的にはキーフレームで調整。
リファンレンス動画は、スタッフが小さい人形と戦う様子を撮影。
PREVIZ の内容が撮影にいかされている。
上半身だけのグリーンのダミー人型と戦う素材で合成
人の演技の映像から、Previz を作成して、final shot を作成。

MUTANTS
BLINKは新しいキャラクタ。空間に穴を開けて瞬間移動できる。
SUNSPOT のキャラクタは、リファレンスとして太陽のコロナ。
ICEMAN のキャラクタは、氷で作られたような質感で。
靴底にLEDをつけてトラッキングしたものを、氷の床の生成と一致させて利用。

[&] SIGGRAPH 2014 - Feast



Feast – A Look at Walt Disney Animation Studios' Newest Short

Patrick Osborne
Head of Animation, "Paperman"
Josh Staub
VFX Supervisor



2年前、夢の仕事に着くことができました。
アイデアをピッチして、Paperman という短編を作ることができました。

feast THREE IDEAS
2012 DEC 一ヶ月のディナーのビデオが発端。
Evernote で screening ノートをまとめ、
犬や食べ物のスケッチをはじめた。

THE PITCH
WHERE THE HUMANS EAT という作品をピッチする場、
けれど、ピッチは一週間後に...

STORY
ストーリ作成のプロセスは、キャラクタ、出来事、登場する物などをポストイットで、一覧。
感情の動きの上下を、体験マップで検討、
それぞれのシーン、セクションごとに絵コンテを作成
最後はハッピーエンドに。

その後、ラフなビデオコンテを作成。
カメラ視点はあくまで犬の視点で。

VISUALS
ディズニーの Pet という作品の中に出て来た少年と、その映像の雰囲気。
Paperman で、3Dによる制作方法が確立。
3Dの前に2Dスケッチでキャラクタの性格を検討。
実際に犬を何匹も連れてきて、食べる様子や走る様子などを観察。
まずは手書きのアニメーションを作成。
2Dでキャラクタ作成、キャラクタの様々な服装も検討。
女性キャラクタ Kirby もウェディング姿、ウェイトレス姿など。
主人公の犬も、口の中、舌などもモデリング。
食べ物のデザインも開始。

JOSHSTAUB - VFX SUPERVISOR
あずは食べ物のリサーチ。沢山沢山食べました。
塩の落ちる様子や、ピザのチーズが伸びる様子など、現実世界の観察。
パイプライン、レンダーは.... 1 key light, 1 sky light で。
湯気の様子なども検討。

RUN LIGHT TEST
犬が走る様子、光とその影に関してのテスト
TEST SHOT LIGHTING KEY
(犬の表情の変化はとても豊か)
人の顔の表情の変化も、様々な照明で表情の様子や影の様子を確認。

映像の動きを矢印で示した2Dスタイルの、絵コンテ。
VALUE STRUCTURE
SILHOUETTE DESIGN
3Dの形状を液晶タブレットへのスケッチで調整、作成。
LIVE AIR と呼ばれる空中に浮遊している地理などの表現も。

SHOT LIGHTING
まずはシェーディング無しの SURFACE COLORで。
COLOR ADJUSTMENTS, フィルムライクな色調整。
COLOR MATTERS シーンの中での色のバランス検討。
LIGHT SHAPES リアルライトソースでの描画テスト。
EDGE BREAKUP エッジを強調したもの。
EDGE NOISE ,NUKEでエッジノイズだけを見て確認。
Z DEPTH を見て確認。
FINAL ファイナルショットは、空気感、被写界深度を含めた映画風レンダリングで。
PROGRESSION 最後に空気感を付加。やり過ぎないように。

LIGHTING KEY
AUTORENDER
SURFACE COLOR
COLOR ADJUSTMENTS
LIGHT SHAPES
EDGE NOISE
EDGE BREAKUP
Z DEPTH
FINAL
PROGRESSION

PAINTED KEY
AUTORENDER
SURFACE COLOR
COLORS ADJUSTMENTS
LIGHT SHAPES
EDGE NOISE
EDGE BREAKUP
Z DEPTH
FINAL
PROGRESSION

[&] SIGGRAPH 2014 - Making “The Dam Keeper”



Making “The Dam Keeper”: How Two First-Time Directors Brought Paint to Life in Their Animated Short Film





https://www.thedamkeeper.com/

Robert Kondo, Director
Dice Tsutsumi, Director
Erick Oh, Supervising Animator

朝早くから来て頂いてありがとうございます。
DAM KEEPER はユニークなビジュアルの短編作品です。

●THE INCEPTION
Let's finish!
try not to be to precious.
三ヶ月で終わらせることを至上目的に。

Growth / Learning
Create opportunities for everyone on the crew!
拡大するように、多くの人にチャンスがあるように。

Creative Goal
Find emotion in the short format.
短編の中に、想いを込めるように

Production
Make it sustainable!
無理せず継続できるように。

●STORY & DEVELOPMENT
Story of a character changing their preception

最初のアイデアは、おじいちゃんと犬が主人公のものでした。
ツリーハウスを考えました。
The Smog House
皆がマスクをして暮らしている街も考えました。
Pitched to Mei and Jenny / it didn't go well

character changing their perception
an unsung hero
pullution

カルフォルニアの動物に触れる動物園?でストーリのアイデアをもらいました。
The Little Dutch Boy が主人公の物語り。
動物が主人公と考え、
キャラクターデザイン、ブタと、狐を考え始めました。

a studio space
directors with time-off.
a troy reel をテンポラリの音楽とともに作成。
PIXAR 風のパーフェクトな三ヶ月で完了するパーフェクトなスケジュールを立てました。

2013年4月に製作がスタートしました。

CRISIS! 色々な問題が発生しました。
Pig's routine was confusing
The rules of the world were confusing
Where are Pig's parents?
Tool plot heavy
No emotion.

RECOVERY リカバリを開始
Pressure of production made us figure out the story.
Additional story changes came, but his benchmark gave us strength!

Robert Kondo
Sketchtravel
Ben Lee, Erich Oh

●ANIMATION
Erich Oh はインディペンデントフィルムでも活躍する PIXAR のアニメーター
http://www.erickoh.com/films.html
Heart 2010 他


他のアニメーションスタイルとは違うのでとても難しい挑戦だった。
スターウォーズ製作に匹敵する挑戦。
Line test 線画のテスト描画
clean up ip
polished

DAM KEEPERでもテスト。
(比較的少ないコマ数で表現?)
Chris Sasaki によるキャラクタデザイン。
FOX は Dice デザインを元に。アクティブで、ごく普通の子供。
Erick Oh による、Pig キャラのさまざまなシチューエーションのテスト描画。
FOX の活発な動きなど。
Andrea Blashch によるクレイモデルの作成。
液晶タブレットによる書き込み。

LIFE OF A SHOT
最終的なイメージをペインティング風に。8人のペインターが担当。
STORYBOARDは、とてもシンプルな白黒線画から。

SET DESIGN
PIGの身長と合わせた、トイレ、教室、廊下の平面図デザイン。
COLOR ROUGH
それらに色を設定 HIRO ???

PREVIZ : Frank Tai によるプレビズ。
ストーリーボードとアニメーションからステージを規定。
ボトルネックは、ストーリボードからアニメーションにするまでの時間。
PREVIZでカメラを想定することで、効率化。
キャラクタのスケールと、セットの中での立ち位置がとても明確になった。

MATT ASPBURY によるレイアウトのプレビズ活用。
レイアウトのプロセスはそういうわけで、全て3D

COLOR SCRIPT は、
最初に盛り上がり、途中にダークなトーン、最後に明るい盛り上がり。
これは、通常の PIXARスタイル。
ラフな色付けしたCOLORSCRIPT

ROUGH ANIMATION
3D Previz から、ラフなアニメーションを作成 ERICK OH

LUCY AROBERTS による COLOR BLOCKING 作成。
フラットカラーで、ライティング無しでの色づけ検討。

BG PAINTING ごく普通にペイント

LIGHTING
Photoshop で 10レイヤーぐらい、lightレイヤー、shadow レイヤー、
キーライトレイヤー、バウンスライト用レイヤーなど。
それらを経て FINAL SHOT

3000枚くらい?Photoshop で大量のペイントを作成?

●THE CREW
メインメンバー総勢21名。
全部で 70名以上の人に手伝ってもらった。
3時間ぐらいから週末手伝うだけの人も。
毎日のデイリーズ(製作映像のチェック)、皆がお互いのショットを
意見し合う場に。とてもアクティブ。
PIXARはインディペンデントフィルムの製作を、勤務時間外でサポート。
機材などの点でも。

ナレーションも、ヨーロピアンな風景に大変あっていて、
素晴らしくナイスガイであった。

効果音は木のギアを作ったりして録音。
音楽はテネシースタジオでライブオーケストラで録音。

NEXT?
BERLINALE 2014 など 15のフェスティバルで賞を受賞。
ポスターや、ポストカード、エコバッグなどのグッズも作成。
Web サイトも、素敵なものがあります。

DAM KEEPER 製作の後、Eric はピクサーのままですが、
TONKO HOUSE という新しいスタジオを作りました。

8/14/2014

[&] SIGGRAPH 2014 - A Unique Collaboration in LAIKA's Animated Features




A Unique Collaboration in LAIKA's Animated Features

http://www.theboxtrolls.com




LAIKA の挑戦が始まったのは「コララインとボタンの魔女」から。
「パラノーマン ブライス・ホローの謎」でストップモーションの世界観を構築でき、
The BoxTrolls を手がけることになりました。北米では9月26日公開予定。

アラン・スノウの Box Trolls が原作。
本の挿絵から、いろいろなこと想像し、ブラッシュアップ。

●Designing a Boxtroll
キャラクタのラインナップを検討。背の高さ。
まずは白黒、Boxtroll は箱を被った状態と、箱を外した状態、裸の状態で検討。
その後、カラーイメージ、
粘土でクレイを作るというディズニーやピクサーでもやっている古典的な方法で。
クレイモデルに彩色。脚本の中でどういう役目を果たすのか考えながら。

●How to move
スタッフが段ボール箱を被ってリファレンス映像を撮影。
一度転んだら起きれなくなるとか...

●Building Fish
段ボールの潰れた感じをシリコンで表現。
本来は人物で利用するヒンジ(リグ)を使って試作。
段ボールを被った状態でも歩けるように考慮
その状態で、最初のストップモーションアニメーションのテスト

●LAIKA's RP Process
Replacement animation fused with cutting-edge 3D printing technology
モデリングは 3Dプリンティングで。
3Dプリンタはバズワードになっているけど、それ以前から活用していた。
まずは、クレイモデルをスキャンしたものから3Dモデルを編集。
360度、ディテールを確認

Texture Painting for 3D printing
数年前にできたカラープリント可能な3Dプリンタを活用。
ハンドペイントにはかなわないけど、今では無くてはならない機器。
カラー3Dプリンタで出力したカラーサンプルで、カラーICCプロファイルを用意
3Dプリンタでパントーン風のチップを全色用意して、番号で色指定できるような仕組みに。
Hand Painted maquette から、Texture Map の UVマップを用意
撮影時のライティングでどのような色になるか、それぞれ指定色を決定。

●Building inside a Boxtroll's head
顔は 78の異なるパーツで作られていて、
眼の玉などが交換できるようになっている。
LEDが顔の中に仕込まれていて、ぼんやり輝くこともできる。
それぞれのコンポーネントを 3Dプリンタで出力してアッセンブル、
眼の玉だけで多数。
右目と左目で瞳孔のペイントが異なる。表情を与えるために。

●Rigging & Facial Animation
数十種類の顔のスケッチから。
2Dアニメーターが描く顔の表情の動きを一方向だけでなく、正面、横方向からも検討する。
それらができたら Maya のリギングで試作を進める。
通常のCGキャラクタとは異なり、口の中や、眼の差し替えなども考慮してモデリングを進める。
2Dスケッチの表情に合わせて、3Dキャラクタを変形/調整して何十種類もの3D顔表情モデルを作成。
50〜300の異なる表情を用意。

●LAIKA's RP プリンタ活用法
Produces internal head components
Stratasys Polyjet 3D printers - UV Cured resin
どの顔でも使う定番の顔パーツと、差し替えが必要な顔の表情パーツなどに分かれる。

パラノーマンで活躍した 3D Systems の3Dプリンタ。
方式が違うもので、完成したらパウダーを除去しなければいけない。
また紙ヤスリをかける作業も必要。
Infiltrating with Super Glue
色を定着させるためにコート剤につける必要もあり。
Multiple coats of clear coat are applied.

●Building a shot
絵コンテに3Dモデルの顔の部分を重ねて確認。
全部で53,000個の顔モデル。
顔アニメーションはショットごとに全てテスト。鏡を使って3方向の顔の表情を全てテスト
Organaized and delivered to set.

●Raw footage
●Seal Removal
コラライン時との違い明るい色調だったが、boxtrolls は暗い色調。
●Rig removal
撮影用に用いたリグを映像から削除する作業。
●Final Shot

How do we populate the Boxtroll world??
20体のboxtrolls のアセットを作成。
基本的なパーツ(体、頭、両手、両足)にわけ、そのバランスが異なるキャラクタを作成。
通常サイズ、横の幅の広い顔、やせ形の顔など。
それに合わせて体の段ボールも、数種類。

これらを組み合わせて、15種類のキャラクタ。
顔が 559種類など....
段ボールに印刷されているラベルデザインも、複数種類をデザイナーが描いて用意。
キャラクタ全体ではなく、ある一部分だけ拡大してもリアルさが失われないように。

クレイモデルからスキャンしたモデルは5万ポリゴンぐらいに。
スキャンしたままでは顔だけで25万ポリゴンぐらい。
Mari でアセット構築。UVマップも生成。

ラピッドプロタイプのクレイモデルから、主に使う2種類?の質感シェーダーを設定。
最終的には CG と、プロトタイプモデルと見分けがつかないくらいに。
体の動きでで、感情を明確に表現。
最終的にはboxtroll全キャラクタに名前がついていた。

LAIKA は現在約400人のメンバーそのうち、40人がストップモーションアニメーター

[&] SIGGRAPH 2014 - Deconstructing the Visual Effects of “Transformers: Age of Extinction”



Deconstructing the Visual Effects of “Transformers: Age of Extinction”







Scott Farrar, ASC, Visual Effects Supervisor
Patrick Tubach, Associate Visual Effects Supervisor
Scott Benza, Animation Supervisor
Michael Balog, Lead FX Technical Director

865 shot
90分
500 VFX アーティスト。サンフランシスコ、シンガポール、バンクーバー、中国
ILM, Atomic FIction, BaseFX
5ヶ月 LA< Texas, など
150日の製作期間
Time to make the robots
All day , All knightship
Animation collaboration skilled warriors skillfully using their skills
Are you picking up what im'm putting down.
Ready for their closeup

●ロケーションの旅
風景や車のリファレンス、IMAXカメラを搭載したヘリでの撮影。
車を飛び上がらせるバネ装置など。
トラックにグリーンスクリーンを張って撮影したり。
車関係、SHIPYARDはデトロイトでの撮影。
トランスフォーマーにつかまれている様子はグリーンスクリーンの枠で。
香港風のシーンもデトロイトのダウンタウンで撮影。
車が浮かび上がるシーンは、巨大な廃品処理用の磁石で。
シカゴでの撮影。
水没のシーンなどを撮影。
香港での撮影。
市街地での撮影。スーパーカー各種、カメラアーム付きの車での撮影。
WULONG での撮影。
中国のホテルにはどこにでもガスマスクがあってびっくり!
万里の長城などでの撮影。

●TIME TO MAKE THE ROBOT
数パターンのオプティマス、いくつかのダメージレベルのものを用意。
アニメのトランスフォーマーから、色々な工程を経てだいぶ変わってる。
オリジナル(最初の映画)のトランスフォーマーは車の部品の印象が強い。
トランスフォーマー3では、メタルっぽいリアルさが増している。
オプティマス、部品の組み合わせが筋肉っぽく見えるように。

●All day , All knightship
KNIGHT SHIP INTERIOR CONCEPTS

DEVELOPMENT the first shot
The weather system
lockdown's reveal
light angle and direction
the ember fumace
tomados of ash
the engines and wash
the prawn arms

●ANIMATION COLLABORATION: SKILLED WARRIORS SKILLFULLY USING THEIR SKILLS
DRIFT
HOUND
LOCKDOWN
OPTIMUS PRIME
それぞれ性格や特徴が際立っているキャラクタづくり。
少ないポリゴン数での PREVIZ(それでも音と動きはfinalに近いクオリティ)

●スタントリファレンス
トランスフォーマー達の肉弾戦のリファンレンスのためにスタントマンの格闘の様子を撮影。
モーションキャプチャの様子をリアルタイムプレビューで確認。
さらにマイケルベイ監督がバーチャルカメラを持って、その場でカメラアングルを指定。

●ARE YOU PICKING UP WHAT I'M PUTTING DOWN?
船が落下するシーン。派手な破壊に。ホコリや爆発などをコンポジットで追加。

●READY FOR THEIR CLOSEUP
3/4のシーンはバックライト(逆光)
ヘリのライトなど、光源が動いていくようなシーンも多い

[&] SIGGRAPH 2014 - Meet Your New Production R&D Department



Meet Your New Production R&D Department

Paul Debevec
USC Institute for Creative Technologies

マトリックスからマレフィセントまで、銀幕のためのSIGGRAPHリサーチ
http://www.debevec.org/
http://gl.ict.usc.edu/

●Reflection Mapping
Blinn&Newell 1976 から始まり、
Miller and Hoffman 1984
Chou & WIlliams 1983
Flight of the Navigator 1986
Tarminator 2 (1991)

●Subsurface Scattering
Hanrahan and Krueger (SIGGRAPH1993)
Digital Michaelangelo Project (Lovoy 2001)
Photon Mapping (Jansen 1998)
Calibrated Material Measurement (Marscher 199?)

BRDF、BSSRDF 表現 SIGGRAPH2001
ILM and Weta で活用。ロードオブザリングや、スターウォーズなど。

Piecewise Smooth Surface Reconstrucsion (SIGGRAPH94)
Geri's Game (1998) Subdivision SUrfaces in Character Animation (SIGGRAPH 98)
Large Steps in Cloth Simulatoin (SIGGRAPH98)

Many Transition Paths from Research to Production
Papers
Software
Datasets
Shoft film...

FACADE: SIGGRAPH96
http://www.pauldebevec.com/Research/
Matrix の地下鉄ホームのシーンで活用。

タイムスイスの元ネタ。
Tim McMillan, Bath Academy of Art 1980's
Tim McMillan "time-slice" camera array 1995
BBCTomorrow's world 1993

JURASSIC PARK, ILM, 1993
IMAGE-BASED LIGHTING
http://www.pauldebevec.com/Probes/
RENDERING WITH NATURAL LIGHT SIGGRPAH98
FIAT LUX SIGGRAPH99
Real Steel HDRI ENvironment: Digital Domain
Markus Kurtz のパノラマ写真。
LIFE OF PI
The Jester (Mark Sagar Life F/X Inc.) SIGGRAPH99

Light stage1 の開発に。
LIGHT STAGE2 は Spiderman 2 (2004) Superman returns (2006) SonyImageworks で活用。
ビデオプロジェクターで球体状のバーチャルセットで人を囲むのがアイデアの発端。
18LEDs: 8RED, 5GREEN, 5BLUE, USBで 8bit RGB をコントロールできる素子を活用。
LIGHT STAGE 3 は、プログラムでコントロールできるように。
A lighting reproduction approach to live action compositing" (SIGGRPAH2002)
リファレンス球で計測したライティングの状況が LIGHT STAGEで再現できるように。

LIGHT STAGE 4 は、複数の人数が利用できるより巨大な環境を構築。
モーションコントロールカメラとも連動。
Eye Reflections ,
解像度が低い時には問題にならなかったが、
眼の中に沢山の光源が映り込んでしまう問題が出て来た。

BARCO の d-lite7 というLEDパネルアレイを試す。
LED Panel Light Stage Design
LEDパネルがどれぐらいの視野角で有効かテストし、
LEDパネルで構成された LIHGTSTAGE を構築。
WARNERBROTHERS/DIGITALDOMAIN の BENJAMIN BUTTON(2008)
the social network の映画でも LIGHTSTAGE が活躍。
双子がボートをこぐシーンなど。(双子のうち後ろの一人は、CGで顔を差し替えた人物)

Performance relighting and reflectance transformation with time multipliexed illumination (SIGGRAPH2005)
ハイスピードカメラを使った方法。
Face casting process (Courtesy Helmut Kungl, XYZRGB Corporation)
その他. EGSR2007

The Digital Emily Project (image matics)
http://gl.ict.usc.edu/Research/DigitalEmily/

Avatar (2009)
MALEFICENT の妖精キャラクタでも活用。
LightStage5 で撮影し、妖精キャラクタの製作に活用。

GRAVITY の撮影。
LIGHT STAGE6という巨大なライトステージを開発。
FYFEE, EUROGRAPHICS 2011
2010年3月ごろよりテストの俳優でテストを開始。
LEDパネルで四方を囲んだステージを用意して撮影。

Digital Ira プロジェクト
NVIDIA との協力。フェイシャルキャプチャの仕組みづくり。
Activition R&D, SIGGRAPH2013 で発表。

デジタルマイケルジャクソンのプロジェクト
ホログラムによる、共演も。

Notes to Researchers
Use the simplest way to explain what you've done.
Make convincing results. Make short films!
Note that a log of innovation happens in industry.
Making something work in production is a lot different than making it work for a SIGGRAPH paper.
An algorithm that automates five minites of artistry is less useful than a tool that empowers the artist.
Commercialize! (be up front about IP)
Be generous with credit!

Keep inspiring the community.
Point out the hard problems.
ENgage with researchers.
Host interns and visiting researchers.
Give feedback when you try something.
Publish at SIGGRAPH, collaborate with researchers.
Be generous with credit!

[&] SIGGRAPH 2014 - Capturing the Teenage Mutant Ninja Turtles




Capturing the Teenage Mutant Ninja Turtles




Pablo Helman, Visual Effects Supervisor
Robert Weaver, Associate VFX Supervisor
Tim Harrington, Animation Supervisor
Michael Koperwas, Creature CG Supervisor
Kiran Bhat, R&D Lead

マイケルベイ監督の、忍者タートル実写版(日本では12月に公開予定)

●パフォーマンスキャプチャー関連
通常のモーションキャプチャスーツに、マーカーが張り巡らさされた亀の甲羅をしょって演技。
720Pハイビジョン解像度のフェイシャルキャプチャ用カメラを縦使いで左右2台装着。顔には多数のマーカー。
(キャプチャカメラには ONLINE かどうか遠目でも分かるように LED シグナルがついている)
エレベータのシーン、ステージキャプチャは、4人一緒に取得。

●フェイシャル関連
Accurately capture the actor's performance
BUILD a rig for the actore
Transfer the performance to the turtle
Keep them in sync
Profit?

4D Capture とよばれる、ディズニーが開発した、時間も含めたキャプチャ方式。
Disney Research の Medusa
映画ではスキャンした様々な表情から、セレクトして利用。
スキャンデータは、リグよりも重要。
人間の顔のパーツの比率と、亀のキャラクタの顔の比率は大きく違い、比率を引き延ばして利用。
人間の顔キャプチャーの素材を元に、亀の時の表情に当てはめた時の違いや違和感を調整。
眼やまぶた、眉の表情や、瞬きの表現が難しい。
亀の眼に当てはめた時も、ある一点、どこを注視しているのか顔を見てわかるように。

●オンセットでのキャプチャ
Significant head motion - simulataneous dialogue and action
Dynamic lighting
VIdeohawk Head mounted camera を利用
Stable hemmets and maskks
Flea3 and custom hard drive を利用
DNxHD:220 10bit で撮影。RAWは無理。
カスタム LUT を利用

●R&D 関連
MUSE Facial performance capture システムに関して
Facial Solving
Match actor's rig to 3D ( from dual helmet cameras )
Automatic rigid solves
guided optimization
Scientific vilidation

Retargeting
Sync'd rigs between actor and creature
Tranfrer solved curves from actor's performance
Fully editable and complimentary

Challenges
Noisy footage
Actor/Creature rig discrepancy
New team ( 10 artists + 4 engineers )

Fast dialogue
キャプチャで取得したメッシュに、歯や眼と瞳、耳の3Dモデルを当てはめる。
Solver steps
キャラクタの平常状態が、亀キャラクタのどのような顔の状態に当てはめるか調整。
怒りの表情の時、唇の形がどのようにするかなどを対比して調整。

Timing
Franken-shots
The elevetor sequence.
Handling rigid erros(口周辺が伸びすぎる)の修正

●アニメーションに関して
IMOCAP
Optical Motion Capture
Stunt Mocap
Facial Motion Capture
VIdeo Reference
Keyframe Animation

Raph, Mikey, Don , Leo と俳優の身長に合わせたキャラクタの身長。
全身三角形マーカの載ったスーツと、亀の甲羅をしょっての演技。
(ヘルメットの上部にリファレンス球が装着されている)
口の動き、表情ががキャラクタにとって自然となるように。
キャプチャしたデータを平滑化し、キーフレームでも調整。
フェイシャルキャプチャ用カメラを装着しないシームあり、
そのような場合は映像をリファレンスにキーフレームでアニメーション作成。
格闘シーンは、サーカスの空中ブランコや、俳優達の演技をリファレンスに。

●VFX 関連
LookDev
テクスチャ、マテリアル、クロースの見栄えを背景環境の中で調整、
暗く汚れた感じから、雪の中のシーケンス用のものも。

Environment Work
LAIR DOJO 地下の道場シーン
SNOWSCAPE 雪の中のチェイスシーン約10分
NEWYORK CITY タイムズスクエア周辺のビルの表現

8/13/2014

[&] SIGGRAPH 2014 - The VFX of GODZILLA



The VFX of GODZILLA






Ferran Domenech, Animation Supervisor, MPC
Axel Bonami, 2D Supervisor, MPC
Stuart Farley, CG Supervisor, Head of 3D, Dneg Singapore
Christoph Ammann, CG Supervisor, Dneg London

MPC Film バンクーバーで担当
415shot 350シーンを担当
Femele Muto 320feet
Male Muto 230 feet
原作 GODZILLA は 20種類の異なるデザイン。

GOZILLAの骨格を元にマッスル(筋肉)モデルで作成。
リグのテストは、象の足を参考に。
クローズアップのショットにも絶えるように。
息を履いたり吸ったりするタイミングも調整。
人の歩きを、極端に遅くした手足の動きが GODZILLA の歩き方。象風の歩き方。

●キャラクタースタディー
アクションクリップを作成。
マッスルシミュレーションとスキンシミューレショん
GODZILLA のっ表情は、単なる「怒り」とは違うもの。幅広い感情を表現するもの。
GODZILLAは象徴的なキャラクタ。

●アニメーションリファレンス
自然から。熊の戦いの様子、コウモリの動き、高が獲物のを捕える時、カモメが水中の魚を捕まえる時。

Godzilla&MUTO clash
まずは Previs から。
サンフランシスコのチャイナタウンでの戦いのプレビズを作成。
Tackle and bite の表現、尾っぽの動きにもこだわり。
Dust, Kali Destruction など特殊効果を追加。

●Rig tesging
どれだけ GODGZILLA お尻が動くか!(笑)

MPC バンクーバー
MPCロンドンはハリッポッターで忙しかったからね〜(笑)
34分を担当
MPCはロンドンを含め400人以上のアーティスト
San Francisco の 80ブロックを担当
PrefViz とプランニングは THETHIRDFLOOR

ロケ、リサーチは Google Earth 3D で。
VR Drive という一眼レフを使って超高解像度パノラマ撮影できる雲台を活用。
40000枚のイメージを撮影。
リファレンス用として、電灯の無い写真を撮影。破壊される都市は電灯無しなので。
だいたいがズームアウトした暗いシーンばかり。
いくつかのシーンはCGだけのものもあり(デジタルマットペイント含む)
最終映像になるまでにはコンポジット段階で 100以上のレイヤー合成あり。

ゴールデンゲートブリッジのシーンに関して
橋は本物の映像だが、橋の上での撮影は全てグリーンスクリーンでの撮影。

空中降下のシーン
中華街での戦闘シーン

●double negative LONDON
mantra / DNB/ prman18 を利用
シミュレーションは Houdini, Houdini native ソルバーと、dneg 独自ソルバーを利用

原爆は高解像度の pyro シミュレーション
mantra での物理モデルベースのボリュームスキャッタリング

リッジボディー
Dneg 独自の Bullet Physics Engine を Houdini 用に実装
Deforming obujects (ケーブル、曲がる金属など)
ワイヤーソルバーを作成。

フォグ
広い範囲のフォグ、
スプライトベースのパーティクスをNuke内にセットアップ
局所的なベイクとシミュレーションは Houdini で。


DynamoとHoudini のリキッドソルバーで実現

MutPit
デジタル群衆と環境。
小さな照明が沢山ある環境、ノイズを使わないでコントロール。

MutoBuild
parasite-inspired, large angular shapes:challenge for rigging and lighting

クリーチャーインテグレーション
trickey to keep lighting flat, whitle retaining interest.

Muto Subsurface glow
egg and EMP organs modelled as internal geometry.
eye glow implemented as Nuke setup.

●double negative シンガポール
トータル164 シーン
アセットビルド、リグ作成、ルックデブも担当
多数のヘリコプターが登場し、変更や修正が大変であった。
マーク無しのヘリコプターに軍用のデカールを加えたり、機体の色そのものを変更したり。

通常のアセット作成のフロー
model ->texture -> look development

追加のフロー
model ->texture develpment -> texture -> look development
壊れたヘリなどもアセットに。

digital environment buildings
洞窟のシーンは ZBrush で最初作成して、maya にエクスポートして活用。

[&] SIGGRAPH 2014 - The Growth of "How to Train Your Dragon 2"



The Growth of "How to Train Your Dragon 2"




ヒックとドラゴン2(日本公開予定無し)
DreamWorks 20周年
前作から5年たって、世界観の更新も。
北欧の雪に閉ざされた様子をリファレンスに。
??? によるコンセプトアート
DRAGON BLADE など、小道具のデザインも綿密に。
前作でのアイデアも含め、武器(主に巨大なもの)のアイデアを多数用意。

●GREATER DIVERSITY OF DRAGONS AND HUMANS
登場するドラゴンの種類
cknberjack/skrill/thunoerorum
changeuing/seashocker/snapcrapper
ドラゴンの群衆は、形は同じでも色が異なる個体で表現。
群衆ものも、人の形は同じで、鎧やカブトの色や形が異なるもので個体表現。

●デザイン法則
2D,3Dに限らず様々なアニメ、映画にでてくるドラゴンをカテゴライズして分類。
人間世界に表れたドラゴン、
人間とドラゴンが共存する世界、
ドラゴンだけの世界
がある。
今回の場合は、ドラゴンと人間が共存する世界。
馬舎のような建物に飼ドラゴンが、寝起きする世界を考えた。

●GROWING UP HICCUP
前作からのキャラクタの成長を考慮。
背が伸びたり、体つきが変わったり。
初期のキャラクタデベロップメントで、ドラゴンに載った時のバランスも検討。
レース用のバイクにのるような感じ。
キャラクタは、360度開店されながら、様々な照明下で検討。
主人公以外のキャラクタも、前作に比べてちょっとクールな感じに。

●CHARACTER RESEARCH
実際にスタッフでキャラクタを演じながら検討、
カブトムシや、ブタを参照。
NIGHTFURYは黒豹、DEADLYNADDER はオーストリッチ、GRONCKLES はブルドッグを参照してキャラクタ作り。
敵キャラは白熊がリファレンス。

●ANIMATOR"S ACTING SHOT REFERENCE
スタッフが実際に動き、
プレビズ映像一部に重ねて表示して検討
アニメーターが2Dで描いたアニメーションの動きに3Dも合わせるように調整

●CINEMATOGRAPHY
Creative direction of the film leaned towards live- action inspired realism.
Cinematography was meant to lend an air of authenticity ot the story stakes.
The comprlexity implied by DEAN's script outmatched our...
Out process needed to expand in order to ensure out cinematic and budgetary goals could be met:

●STANDARD ROUGH LAYOUT PROCESS
絵コンテベースの配置から、ジオメトリのみのラフレンダリングから。
Because of visual simplicity serious discussion about
creative goals tends to be delayed which may result in lost opportunities or cost overruns.
a previz phase was added to fully explore the cinematic potential of each sequence.
Previz
blocking tha action in larger sections much like a live action shot.
モーションキャプチャーの段階は、ラピッドプロトタイピングのダンカン。
インタラクションと様々な可能性を試す。失敗を歓迎する。
exprecially useful for dragon behavior and flight, hugely successful.
SIGNIFICANT FACTORS
The creative leadership group charged with focusing global creative and budgetary measures as early as possible.

●LIGHTING DESIGN
コンセプトにあったライティングの写真をリファレンスに。
明るいハイライト部分はそれはそれ、暗い部分も奥行き感のあるライティングに。
Over and Under exposed.
環境光も含め、1色のライティング表現の場合、
たいまつなど、光源が 1つしか無い場合も。
日向の部分、日陰の部分で、1画面の中で大きく光源が違う時も。

[&] SIGGRAPH 2014 - Dawn of the Planet of the Apes



Dawn of the Planet of the Apes





Dan Lemmon, VFX Supervisor Weta Digital
Keith Miller, VFX Supervisor Weta Digital

JOHN CHAMBERS AND RODDY MCDOWELL の特殊メイク時代。
Avatar で顔も体も全てキャプチャー(パフォーマンスキャプチャー)した経験が活かされた。
6台から8台のモーションキャプチャカメラ。
人間による演技や動きを猿のCGキャラクタに置き換えてモーションの確認。
Avatar と同じ、ヘルメットに装着されたブーム式のカメラで、顔のキャプチャを確実に取得。
猿は筋肉シミュレーションされたもの。
人は、長い腕を装着して走ったり。
屋外でのモーションキャプチャもあり。ワイヤレス送信タイプ。雨露に注意した。
様々な過酷な状況でもロバストで利用できるよう、様々な工夫が。
FAUX-CAP
フェイシャル用のカメラも雨露対策が大変だった。

HiDefX3 による紹介。
雨露にぬれたファーのシミュレーションなども。
雨つぶのシミュレーションとの連携。
樹木もリファレンス写真を多く撮って利用。
背景だけをロケ地で撮影し、そこに合成する場合も。
猿がつかんで動く枝などは CGで追加したもの。
既存の建物に、廃墟のようなツタを加えるような場合も。
実際のカリフォルニアの都市の写真を素材に車などを消してCGで再構成も。
街中を 3Dスキャンしたデータを利用。
サンフランシスコの印象的な建築物を素材に。
古いビルがどのように老朽化するのかを調べて参考に。
SFマーケットストリートの航空写真も活用。

リファレンスとして、印象がの絵画、ライティングが印象的な写真など。
バーチャルカメラを活用。
スパイゲームの屋上のシーンを参考に。
ゴッドファーザーのマーロンブランドのライティングを参考にしたり。
直径30cm ぐらいのグレーとクロムのリファレンス、実物大の猿上半身模型をリファレンスに。

目(瞳)の表現。まずは人間の眼を撮影しリファレンスに。
本来の猿の眼は、人間とは違うが、今回の映画は進化した猿なので、人間的な眼。
フェイシャルアニメーションに関しても同様。
動物園で猿を観察し、猿の手はそのものではなく、人に近い手の形に変更。

猿のモーションキャプチャは、子供の俳優に猿の動きをしてもらう場合も。
幼児や赤ちゃんを参考にする場合も。
演技の際は、全く何もない状況で。目線を合わせるのが大変。
俳優の目線の先の焦点を、映像に赤い点で書き込んでCG合成。

8/12/2014

[&] SIGGRAPH 2014 - The Making of Marvel's Guardians of the Galaxy



The Making of Marvel's Guardians of the Galaxy



http://marvel.com/movies/movie/179/guardians_of_the_galaxy

Victoria Alonso, EVP of Visual Effects and Post Production, Marvel Studios/Executive Producer Marvel’s Guardians of the Galaxy
Olivier Dumont, Associate VFX Supervisor
Kyle McCulloch, VFX Supervisor Framestore
Vincent Cirelli, VFX Supervisor, Luma Pictures
Nicolas Aithadi, VFX Supervisor, MPC

2208 shot
2474 total cuts
90% は VFX
13 vfx 会社、17拠点が協力

CHRIS FOSS の描いた乗り物、コンセプト画をリファレンスに。
http://www.chrisfossart.com/
ほとんど全編 PreViz 作ってる。
http://www.awn.com/news/proof-provides-visualization-marvel-s-guardians-galaxy

●KYLEMCCULLOCH : Framestore
原作はコミック、コンセプト画を多数用意。
実際のアライグマも連れて来てリファレンスに(笑)
骨格を考慮したが、映画の中のキャラクタは立つので、
コスチュームを着たことも考慮した上で動きを検討。

ファーは容易だったが、実際の動物の入り会いを参考に2レイヤーで最終的な色を決定。
Marshner Hair Model
GPU MIS テクニックを活用

二本足歩行っぽい動きでありつつも、動物っぽい動きを重視。
セットの中をスタッフが実物大の人形を持って動き、リファレンスに。
背の高い木のキャラクタは、前進緑の人がヘルメットを被って演技。

平易なものはアニメーターが自分で動いてリファレンスに。
最初に声優が台詞を録音し、その表情も録画しておき、フェイシャルアニメーションのリファレンスに。
コスチュームの稼働性やしわなども実際の衣服の写真をリファレンスに。
実物大のぬいぐるみと、片面がグレー、片面がクロムの環境リファレンス用の球を撮影。

300弱のアセットを組み合わせて宇宙船内の様子を構築?
26,000のライト、パストレーシング。
13,000コア
>100 shots/week
379 total crew
500TB
639 shots
276 rockets
226 Groot
〜 40 min of film

●NICOLAS AITHADI (MPC Film)
700人のチーム
857 shot を担当
480shot は最後の戦いの部分
7000 explosigon から最低でも400 explosion ショットごとに
5000 Hour のシミューレション時間
最大 39,908,400,000ポリゴン
16km 相当の市街

Groot という木のキャラクタを担当
まずは、Marvel からのコンセプトアートから。
見えないオブジェクトも合わせて、パーツをつなぎ合わせ、身体全体を構築。
複雑な樹木の写真をリファレンスに。

テクスチャアーティストにコンセプトアートを基にテクスチャマテリアルを設定。
実世界の背景に合成して360度方向からチェック。
メカニカルにダイナミックに個々のパーツが動くように。
モーションキャプチャを使わず、すべてキーフレームアニメーション?

目や黒眼の動きは、人間の目をリファレンスに。
驚いている時、悲しんでいる時など、体全体の疎きを作りアニメーションテスト。
ある動作から、ある動作に移り変わる時も、人間らしいポーズを撮って動くように。
何気ない、静止した状態も作成。

http://www.moving-picture.com/news/mpc-film-at-siggraph-2014

●VINCENT CIRELLI (Luma pictures)
Thanos というキャラクタを担当
大変カメラに近く(クローズアップ)、喋る。俳優っぽい動き。
俳優の顔をキャプチャーして利用。

Face2Face の仕組み。
オンザフライでコントロール可能。必要に応じてアニメーターが調整することも可能。
まず多くのサンプル、スキンアニメーションを検討。
Mari Viewpoint Render を活用

[&] SIGGRAPH2014 - The Making of Marvel's “Captain America: The Winter Soldier”



The Making of Marvel's “Captain America: The Winter Soldier”
キャプテン・アメリカ/ウィンター・ソルジャーのメイキング。各所でプレビズが活躍。



Victoria Alonso, EVP of Visual Effects and Post Production, Marvel Studios/Executive Producer Marvel’s Captain America: The Winter Solider
Dan DeLeeuw, VFX Supervisor
Russell Earl, VFX Supervisor ILM
Bryan Grill, VFX Supervisor Scanline VFX
Edson Williams, VFX Supervisor Lola



●はじめに...
プレビズと音楽、効果音はとても重要
人に肉弾戦をさせてリファレンスに、その際も効果音つきでプレビュー
ビデオコンテにも効果音
グリーンスクリーンだらけで本当に必要なところだけセット
白とクロムのリファレンス球を利用

●Scanline
船のシーン
エレベーターのシーン
橋の上のバイクのシーン
450shot

船のシーン
実際の船を再構成して利用。
数万のリファレンス写真を撮影して利用。
船上のヘリは全てCG

エレベーターの戦闘シーン、
実物大のエレベータを用意、
Google Earth 3D を利用して、エレベーターから見える風景を代用
エレベータとカメラの角度から、どの方向の背景を映すのかうまく研鑽して調整。
その際、自慢の盾もCG!

QUINJET LEAP のシーン
背景も QUINJET も含め全て CG
ボットやナット、鉄サビの様子など、大量のリファレンスを用意

●Lola VFX
年老いた顔の担当(PEGGYのシーン)
フェイスプロジェクションという女優の顔をトラッキングした上で、
トラッキングしてシワを加える手法を 2パスで。
女優さんは、ノーメイクで顔にキャプチャ用のマーカーをつけて撮影(笑
リファレンス素材として、何人ものおばあちゃんの顔写真を参照

●ILM
SHIELD HEADQUARTER の建物のシーンを担当
ワシントンDC の地図と写真を居ながらプランニング。
ヘリが飛べる場所などで検討。
ビルの参考になるリファレンス写真を多数用意。
立体写真で検討したりも。
最初の建物CGは、全面水面の上で検討。
次にマッチムーブで実写背景に重ねて検討。

整備場のシーンはケネディ宇宙センター整備場の写真などをリファレンスに。
1セクションだけハリボテの壁を用意。
ここでもプレビズ重要。レンズフレアや、あちこちに光があふれている様子を表現。
整備場のシーン、実際は全てグリーンスクリーン。

新兵器の翼の描画。原作漫画の翼を参考にしているが、機械的なもの。
トンビ?の羽根を参考に。
俳優撮影時はワイヤーアクションで。
羽根の可動範囲などをテスト。ここでもプレビズの活躍。
羽根のデザインは、鳥っぽいものから、兵器(機械)っぽいデザインに決定。

バトルシップ同士の相打ちシーン
大量のプレビズ作成。

http://www.awn.com/vfxworld/monty-granito-talks-captain-america-winter-solder-previs

[&] SIGGRAPH 2014 - Building Blocks for "The LEGO Movie"



#SIGGRAPH2014J : Building Blocks for "The LEGO Movie" LEGO Movie のメイキング。
(by Animalogic)

Damien Gray, CG Supervisor
Rob Coleman, Head of Animation
Aidan Sarsfield, CG Supervisor
Daniel Heckenberg, R&D Lead


Making of The Lego Movie by CGMeetup


2010 年の Lego Star Wars : Padawan Menace が始まり。
その時は 22分
フォトリアルで、クラルトルック、リアルなLEGO部費で。
マイケルベイ風の映像を作ろうと思った。

●インスピレーション
Stud, Holow, BLick, Cube という基本的な4つの部品で構成
大人のファンも居ることを考慮、
製品版と、オリジナルの組み合わせで様々なものが作られ。
マイクロフォトグラフィやストップモーション撮影によって、
様々な高品質な LEGO 写真、動画がファンによって作られていた。


Brick Films と呼ばれる Robert Chiken による映像。
だれもがレゴブロックそのものを素材んにしていた。
コンセプトやストーリーボード自身も LEGO で作成。
 波をLEGOブロッくで表現した素晴らしい例。
背景/環境をスケッチ。
世界観構築のため、世界地図を策定。
大陸間を移動するための船をデザイン。

キャラクターは、LEGO人形をベースに、少し大胆なデザインも
大きさを考慮しながら作成。

●アセットモデリング
全ては LEGO ブロックの部品で作成。
2008種類のぶろっくkをCG上でモデリング。
Maya にアセットを取り込んで利用できるように。
サブディビジョンでエッジをはっきりとさせた。

LEGO DIGITAL DESIGNER 4.3 ツールで、色選択したり、モデリングしたりを素早く実施。
http://ldd.lego.com
動きをシミュレーションしたり、コピーペースとが容易。
ブリックでデザインを進める。
カラーリングを検討。
環境(背景)も LEGOで作成。
低解像度のデータを Maya にとりこんで細かいところを作る。
JITTER 1.0 程度、後処理で付加。

●アセットリギング
ブロックの可動部分をコントロール、
本物のブロックと同じ可動範囲。
2D Facial Rig 顔の表情は個別に切り替わるよう作成。
face Wardrobes いくつかのキャラクタは解くにユニークな表情で。
チェインなど稼働部分が多い特殊な部品もディテールを調整
3800ブリック使うような複雑なキャラクタもあり。

●アセットサーフェーシング
プラスティック風のルックデベロップを実施。
ハイライト、反射、シェーディング、プラスチック風の質感、本物そっくりに。
カラーパレットは LEGO ブロックに存在するもの限定で。透明質かのものも。
Subdivitiaon Surface ,Glossy Shader, Subsufrface Scattering, Roughness, Warping,Dents, Scratches, Dirt, Decal など。
汚れた感じや、影などもチェック。

●レイアウト
適切な被写界深度を各種テスト。
手持ちカメラのような見せ方を研究。ステディカム風、マイケルベイ風など。
もともと小さなものなので、大きさ感が失われないようフォーカスの合わせ方に配慮。

●アニメーション
手作り風の感触を残す
動き方にLEGOならではの限定された動きに。
首を振るとかいった動きは LEGOには不自然。
実物のLEGO人形で、リファレンス映像を撮影。子供がLEGOで遊ぶようなぎこちない動きを検討。
どんなに素早く動いたとしても LEGO 封を失わないように。
声優は先に録音し、口パクは後で映像を合わせる。
歩きや、顔の動きのタイミングは、過剰に滑らかにならないように。
糸でつり下げたような不安定なアニメーションはリファレンスを撮影して、キーフレームに反映
リプレースメントアニメーションは、1フレームごとに検討。
デュプロブロックが悪役?として登場

顔の表情アニメーションは Softimage で。
Subtle Facial animation は、アクセントラインとして額のしわを追加したり。

●パイプラインは、
MODEL - TTEXTURE- LOOKDEV - BUILD.....
最初はデンマークの LEGO 本社で開始。
BlickFX というブロック特有の特殊効果、光るブロックの効果などを作成。

Display Geometory - LDD to COnstruct Assets - Bake DIsplay Assetgs for WIPshots -
- ANALYZE Usage to Identify Bricks - Production FILMBrockes - Bake Film Assets for FINALWORK
最初にチョイスしたアセットは、最後の FILMクオリティの詳細なものに差し替えするまで自動化。
ぐるぐる回るようなもの、Point per Brick で設定し、自動化

●レイアウトとアニメーション
銃の玉、レザーなど、OpenGL インスタンサーでパーティクルを確認。
パーティクルを出力し、アセット化
背景時おめとりの細かさを調整しながら編集。細かな編集する時だけ高精細モデルで。
高速に動く時は、モーションブラーも考慮。

●特殊効果
煙、波、交通、爆発、群衆、砂埃、破壊など
Point Cloud を設定し、カメラに近いところを細かく表示。
複雑な形状も 1x1 のLEGO ブロックで形成ボリューム形成できるように。
爆発の特殊効果も、実際に使われているブロックが粉砕するように。
群衆ものは、LEGOっぽく皆の動きが同期するように。
海の表現は、海色のブロッくを数種類使い、流体シミュレーションした恵贈をブロック表現

●ブリックのモデリング
Level of Detail を考慮したもの。
ボタンと呼ばれるLEGO特有のポッチがあるものと無いもの。
またブリックの中身は、それぞれ分離できるようなモデル。
Subdivision Surfaces を使い、輪郭をくっきりと、
Semi-procedural tools を活用。
顔に関して、ベクターベースの表情で表現。
OpenGL Shader で確認。RenderMan Shadeop を活用。あえて滑らかに動かないように。
Shellbaking は... ????
環境はスケッチ画と、コンセプトアートから。
まずは、ハンドメイドでLEGOを作ってテストや検討を実施。

●ライティング
フィジカルベースのライティングパイプラインを構築
レイトレーシングの反射。
ミニチュアに見えるライティングで。

●ライティングデザイン
ストーリーの盛り上がりや、雰囲気を考慮したカラースクリプトを作成
本来光らないレゴ部品を光らせることもあった。

●レンダリング
超たくさんのブロックがあり。
省略なし。
テクスチャ表現の指針もあり。
Interactive Path Tracer で。
Franken Gliimpsen
RIFilter scene extraction
Ray acceleration

●レンズエフェクト
カメラ、マクロ、シャドーDOF
プラスチック質感、フレアや、レンズフレア、
Glint を追加。レンズブレスも追加。

8/11/2014

[&] SIGGRAPH 2014 (Computer Animation Festival)

Computer Animation Festival 速報

Best in Show : BOX

Box from Bot & Dolly on Vimeo.


Jury Award : Paper World


Best Animated Short : Home Sweet Home

Home Sweet Home // Firecamp Breakdown from Pierre Clenet on Vimeo.


Best Student Project : Wrapped

Best Visual Effects : Gravity


Best Visualization & Simulation : Kinematics

Kinematics from Nervous System on Vimeo.


Best Game : The Crew


Best Real-Time Graphics: RYSE: Son of Rome


Best Commercial Advertisement: Three, "The Pony"

[&] SIGGRAPH 2014 (Papers Fast Forward) day1



SIGGRAPH 2014 Papers Fast Forward

SIGGRAPH初日夜の目玉、全論文の内容を短い時間で発表するイベントです。
例年は60秒から50秒の持ち時間なのに、今年は1本の論文につき30秒という超高速発表。
今年も参加されている @_anohito 教授(TwitterBot)のコメントが「絵が下手」と的確すぎて....
------------------------------------------
■ Shape Collection

●Meta-representations of Shape Families
http://vecg.cs.ucl.ac.uk/Projects/SmartGeometry/metarep/metaRep_sigg14.html
同じファミリーに属している形状を認識する。椅子らしい形状など。形状と相対的な位置関係から解析。

●Organizing Heterogeneous Scene Collections through Contextual Focal Points
http://www.kevinkaixu.net/k/projects/focal.html
ヘテロジニアス、大量なモデルが散らばっている時、焦点とポイントを導入する。
テーブルと椅子など、ある組み合わせを抽出して比較する。
ある特定の集合。あるクラスタのみコンパクトであることを利用。

●Functional Map Networks for Analyzing and Browsing Large Shape Collections
http://graphics.stanford.edu/~huangqx/Papers.htm
パーツごとの類似性を利用して、似た形状の分類をする。

●Geometry and Context for Semantic Correspondences and Functionality Recognition in Man-Made 3D Shapes
https://sites.google.com/site/hamidlaga/Home/functionality
人の手によって作られた形状、意味的な対応関係を求める手法。オフィスチェアであればキャスターがついているなど
大きな違いがある。形が違っても文脈が共通であれば、同じ種類のモノであると考える。ランダムファクト法を利用。

●Estimating Image Depth Using Shape Collections
http://vecg.cs.ucl.ac.uk/Projects/SmartGeometry/image_shape_net/imageShapeNet_sigg14.html
深さ(奥行き)情報を利用して、3D形状の方向を変更

-----------------------------------------------------------------------------------
■ Sound & Light

●Parametric Wave Field Coding for Precomputed Sound Propagation

http://delivery.acm.org/10.1145/2610000/2601184/a38-raghuvanshi.pdf?ip=207.35.6.170&id=2601184&acc=OPEN&key=4D4702B0C3E38B35%2E4D4702B0C3E38B35%2E4D4702B0C3E38B35%2E6D218144511F3437&CFID=401508531&CFTOKEN=35226489&__acm__=1407731382_2601f66a642c31fd3a886b6237a9d970

残響のシミュレーション。あらゆる地点での再現が可能。

●High-Order Diffraction and Diffuse Reflections for Interactive Sound Propagation in Large Environments
http://gamma.cs.unc.edu/HIGHDIFF/
広い空間での残響のシミュレーションを前計算無しで、計算。障害物などがあってもOK。音源が動いてもOK。
周波数の高さに応じて、計算解像度をうまく変えることで計算量を軽減。

●Eigenmode Compression for Modal Sound Models
http://www.cs.cornell.edu/Projects/Sound/modec/
剛体の衝突音、一定の周波数で振動する可聴範囲のみオリジナル音の生成条件を 1/100 に圧縮して持っておく。
約700MBの音データが16MB程度に。

★●Inverse-Foley Animation: Synchronizing rigid-body motions to sound

http://www.cs.cornell.edu/Projects/Sound/ifa/
録音された音から、それを表現できるような剛体シミュレーションを行うもの。
音楽を与えたら、それっぽいアニメーションが生成される。事前計算した動きをデータベースとして持っている。

●Refractive Radiative Transfer Equation
http://www.vis.uni-stuttgart.de/~amentmo/
??
-----------------------------------------------------------------------------------------
■ Faces

●Facial Performance Enhancement Using Dynamic Shape Space Analysis
http://www.disneyresearch.com/project/facial-performance-enhancement-using-dynamic-shape-space-analysis/
高解像度で様々な表情のデータを集め、低解像度のアニメーションの表情に利用。1000ぐらいのサンプル。

●Controllable High-Fidelity Facial Performance Transfer
コントロール(演出)可能な、フェイシャルアニメーション

●Displaced Dynamic Expression Regression for Real-time Facial Tracking and Animation
http://gaps-zju.org/DDE/
トラッキングを簡単に。あらかじめ映る人の特徴を学習することなく、高い精度で顔をトラッキング。
適当に合わせたものを機械学習でずれを無くしておき、最終的には、顔に合致したトラッキングを。
光の変化の大きい場所でも正確にトラッキング。2Dの顔モデルで一致状態を計算。

●Rigid Stabilization of Facial Expressions
http://dl.acm.org/citation.cfm?id=2601182
普通の顔の動きだけではなく、歪んだ顔や、ひずんだ表情などのフェイシャル。

---------------------------------------------------------------------------------------------
■ Points & Reconstruction

●Continuous Projection for Fast L1 Reconstruction
http://www.cg.tuwien.ac.at/research/publications/2014/preiner2014clop/
リアルタイムの L1 再構成の方法

●Flower Modeling via X-ray Computed Tomography
http://www.riken.jp/brict/Ijiri/ProjTakaflower2/index.html
花を CTスキャンで撮ってきたものを 3Dモデルに起こす手法。CTスキャンで花のモデルを作ったことは無かった。
セミオートで作る実験。

●k-d Darts: Sampling by k-Dimensional Flat Searches
http://www.cs.sandia.gov/~samitch/bibliography_2007.html
k-d Darts の改善。被写界深度映像の作成に役立つ。

●Point Morphology
http://perso.telecom-paristech.fr/~boubek/papers/PointMorphology/
Morphology 演算を、3Dポイントクラウドで実施する方法。
収縮と膨張の二種類の形状変化をポイントクラウドで。

●Floating Scale Surface Reconstruction
http://www.gris.informatik.tu-darmstadt.de/projects/floating-scale-surface-recon/
ポイントクラウドからサーフェスの再構成

---------------------------------------------------------------------------------------------------
■ Controlling Character

●Generalizing Locomotion Style to New Animals With Inverse Optimal Regression
http://grail.cs.washington.edu/projects/inverse_locomotion/
実写ビデオから動物の動きをトラッキングして、モーションデータベースを作り、
様々な体重の様々な動物をモデル化し、データベースから新たな動物に対しても、
ロコモーションを推奨できるというもの。巨大な恐竜モデルに適応したりもできる。

●Learning Bicycle Stunts
http://www.cc.gatech.edu/~jtan34/project/learningBicycleStunts.html
自転車を乗るような、バランスを取る動きのシミュレーション。
凸凹の地面や、自転車で階段を下るような場合のバランス。ハンドルをどう操作するか、
機械学習をもとに、バランスを取る推定アルゴリズム。

●Data-driven control of flapping flight
http://mrl.snu.ac.kr/publications/publications.html
鳩をモーションキャプチャ。28のカメラ、240fps, 14マーカーを手作業でつけてキャプチャ。
どちらに飛びたいか?という状況をリサンプリング。

●Online Motion Synthesis Using Sequential Monte Carlo
https://mediatech.aalto.fi/publications/graphics/OnlineSMC/
ボールが飛んでくるのを避けるモーション。起き上がるとか、バランスを取るとか、
不自然な状況を回避する。モンテカルロ法(パーティクルフィルター的な方法)で。

●Breathing Life into Shape: Capturing, Modeling and Animating 3D Human Breathing
http://ps.is.tuebingen.mpg.de/person/tsoli
息を吸うときに、胸が膨らむ動きをキャプチャ。[Anguelov 2005] の拡張
どこを動かすか、どこが動くかは、性別は人によって異なる。

-----------------------------------------------------------------------------------------------------------
■ Non Photorealistic Rendering

●Authoring and Animating Painterly Characters
http://web.mit.edu/ibaran/www/
ラインメッシュを使った手書き風のキャラクタ描画

★●Ink-and-Ray: Bas-Relief Meshes for Adding Global Illumination Effects to Hand-Drawn Characters

http://dcgi.felk.cvut.cz/home/sykorad/ink-and-ray.html
レリーフ風。2Dの画像とユーザーのアノテーションで深さのオーダーを指定すると、3Dアニメモデルに。

●Computing Smooth Surface Contours with Accurate Topology
http://www.labri.fr/perso/pbenard/publications/contours.html
インプットが3Dのモデル。輪郭線のスムージングを実際のジオメトリにあった輪郭線を作る方法

●Fast Multipole Representation of Diffusion Curves and Points
http://www.cs.columbia.edu/cg/fmr/
Diffusion Curves の扱いを高速化する方法。

★●EZ-Sketching: Three-Level Optimization for Error-Tolerant Image Tracing

http://sweb.cityu.edu.hk/hongbofu/projects/EZSketching_SIG14/
インプットはスケッチ線、ラフに描いたスケッチが、綺麗になったスケッチ画像に。
写真に合わせて綺麗にリファインする手法。

------------------------------------------------------------------------------------------------------------
■ Sampling & Spectra

● Boosting Monte Carlo Rendering by Ray Histogram Fusion
http://dev.ipol.im/~mdelbra/rhf/
シーンのレンダリング手法を限定しないシンプルな実装でのモンテカルロレンダリングのノイズ除去。
もともとは Non Local means filter を利用。ピクセル同士の色比較の手法。比較部分を独自手法に。

●Factored Axis-Aligned Filtering for Rendering Multiple Distribution Effects
http://www.eecs.berkeley.edu/~sohamum/publications
フィルタリング手法。周波数解析をしてフィルタリング。二つのエフェクトを合わせた時にも同時にフィルタリング

●A Constructive Theory of Sampling for Image Synthesis using Reproducing Kernel Bases
http://users.cms.caltech.edu/~lessig/cosalt/
関数解析の手法を活用。ポイントサンプルの連続関数に対応、それを使うとサンプルから色々な情報が得られる。
サンプリングの最適化で、純粋なモンテカルロ法よりも、適切なサンプルが得られる。

●Fast Tile-Based Adaptive Sampling with User-Specified Fourier Spectra
http://liris.cnrs.fr/victor.ostromoukhov/publications/publications_abstracts.html#SIGGRAPH2014_Polyhexes
二次元でのタイルベースサンプリングの話し。サンプルのスペクトルパターンの応用。
今までは時間のかかる方法しか無かったものを高速に。

●A Local Frequency Analysis of Light Scattering and Absorption
http://hal.inria.fr/hal-00957242/en
スペクトルの表現。応用として、フィルタリングに使う。フォトンビームの効率化、判定に使う。

-----------------------------------------------------------------------------------------------------------
■ Displays

●A Reflectance Display
http://vision.seas.harvard.edu/reflectance_display/
反射型ディスプレイ。パッシブ、視点と光の場所によって違って見える。
反射型の SLM素子を使い、光の当たり方で変わる。反射率をリアルタイムに変換させるようにした。

●Focus 3D: Compressive Accommodation Display
http://web.media.mit.edu/~gordonw/Focus3D/
眼鏡無し 立体視ディスプレイ。computational ディスプレイを使いやすくしたもの。
アイトラッキングを使って、バックライトで広視野角に。NTF で綺麗な映像が出るように。

★●A Compressive Light Field Projection System


http://web.media.mit.edu/~gordonw/CompressiveLightFieldProjector/

プロジェクタを作って、スクリーンが特殊、ライトフィールドを持つ映像を当てると、3Dで見えるプロジェクタ。

★●Eyeglasses-free Display: Towards Correcting Visual Aberrations with Computational Light Field Displays

http://graphics.berkeley.edu/papers/Huang-EFD-2014-08/index.html
目の悪い人、適切に焦点をあわせられない。眼鏡をかけない状態でもディスプレイを綺麗に見たい。
ハイコントラストでシャープな映像を見ることができる眼鏡ディスプレイ。
iPod touch にパララックスシートを使い、試作。老眼でも近眼でも。

★●Cascaded Displays: Spatiotemporal Superresolution using Offset Pixel Layers

https://research.nvidia.com/publication/cascaded-displays-spatiotemporal-superresolution-using-offset-pixel-layers
超高解像度の画像を2つのレイヤーを持ったディスプレイで実現。オキュラスに転職した人。
高解像度の素材はデータが大きいので、ローレゾな液晶を2枚重ねることで、高解像度のディスプレイを作る。

-----------------------------------------------------------------------------------------------------------
■ Fabrication Oriented Design

★●Pteromys: Interactive Design and Optimization of Free-formed Free-flight Model Airplanes

http://www-ui.is.s.u-tokyo.ac.jp/~ume/GliderDesign/2014_siggraph_GliderDesign.html
実際に空を飛ぶ紙飛行機、どんな形でも飛ぶもののデザイン補助。

●Wire Mesh Design
http://www.cs.columbia.edu/~akash/
ワイヤーメッシュのデザイン

●Design and Fabrication by Example
http://www.faculty.idc.ac.il/arik/site/designFab.asp
ファブリケーションの際のサンプル造り

●Designing Inflatable Structures
http://www.cs.columbia.edu/~akash/
ビニール風船状の形状をモデリングする手法

★●Computational Design of Linkage-Based Characters

http://www.disneyresearch.com/wp-content/uploads/CDMC.pdf
実際に動作する、構造体を作る手法。昨年?の論文の改良

-----------------------------------------------------------------------------------------------------------
■ Geometry Processing

● Parallel chen-han (PCH) algorithm for discrete geodesics
http://www.shawnying.com/
シリアルな方法より速くなった PCH 手法の紹介

●Form-finding with polyhedral meshes made simple
http://www.geometrie.tugraz.at/wallner/wpubl.php
適切なフォームを適用する方法

●Earth Mover's Distances on Discrete Surfaces
http://www.stanford.edu/~justso1/
??

●Controlling Singular Values with Semidefinite Programming
http://www.wisdom.weizmann.ac.il/~noamaig/real_home.html
QUasiconformal マッピングがどう変化するか?

●Lifted Bijections for Low Distortion Surface Mappings
http://www.wisdom.weizmann.ac.il/~noamaig/real_home.html
形状が違う物体のメッシュ同士の対応(マッピング)に関して

-------------------------------------------------------------------------------------------
■ Game & Design

●Boxelization: Folding 3D Objects Into Boxes
http://cfg.mit.edu/content/boxelization-folding-3d-objects-boxes
三次元モデルが与えられた時に、箱状に折り畳めるものに変換する。
衝突が無い、折り畳みの手順を保証する。物理シミュレーションで開いていくことで確かめるツールの提案。

★●The Connect-The-Dots Family of Puzzles: Design and Automatic Generation

パズルに関する論文。数字が書いてある点を結ぶと絵が現れるパズル。
このパズルをもっと面白く、自動生成できないか?数字を与えるとすぐに解けてしまうので、
方向だけ示して、その方向にある点を結ぶ、一番近い点同士を結ぶ、ある特定の距離を結ぶなど。

●Self-Refining Games using Player Analytics
http://graphics.cs.cmu.edu/projects/self-refining-games/
ゲーム内のデータドリブンシミュレーションの改善、クラウドソーシングによるプレイヤーの操作記録。
[Kim 13]の改善。できるだけ多くのアニメーションを用意しておいて、再生時にはつなぎ合わせて使う。
どこを事前計算すべきか?流体シミュレーションに対応。プレイヤーがすればするほど事前計算の精度があがる。

●High-contrast Computational Caustic Design
http://www.chateaunoir.net/caustics.html
スムーズではないもの、透明物体と対象が一定では無いもの、高いコントラストが得られる。
完全に真っ黒な領域を表現することができたりする。singularities 局所的に光が集中しているものを作れる。

★●Poisson-based Continuous Surface Generation for Goal-based Caustics
http://nishitalab.org/user/egaku/tog14/absttog14.html
集光、透明物体の場合の問題。逆問題は、ある集光を得る物体を逆算する問題。
法線を決定する部分と、表面を計算する部分で、ポアソン方程式を解く手法。

-------------------------------------------------------------------------------------------
■ Surfaces, Deformation and Correspondence

●Locally Injective Parametrization With Arbitrary Fixed Boundaries
http://www.eng.biu.ac.il/weberof/publications/
複雑な形状の、三角形がひっくり返らないようなマッピングを計算する。

●Provably Good Planar Mappings
http://www.wisdom.weizmann.ac.il/~ylipman/
メッシュレスの新手法。メッシュのフチで不連続なマッピングになるのを回避。[Lipman 12] の改善。
MATLIB のデモが公開されている。

●Context-based Coherent Surface Completion
http://webee.technion.ac.il/~ayellet/papers.html
メッシュの穴に関する問題解決。コヒーレンスを用いたアルゴリズム。
穴埋めメッシュを構成するのに、パッチをとってきて、切り貼りしてターゲットのメッシュを作る。
合成結果のために類似したメッシュをみつけ利用する。大きな穴に対しても適切に埋められる。

●Diffusion Pruning for Rapidly and Robustly Selecting Global Correspondences using Local Isometry
http://users.cs.cf.ac.uk/Yukun.Lai/#pub2014
画像ではなくメッシュである点、二つの形状の対応点wを取得。悪い対応点を取り除く。従来手法より良い結果。

●Feature Matching With Bounded Distortion
http://www.wisdom.weizmann.ac.il/~ylipman/
Bounded Distortion をコンピュータビジョン的な手法で、二つの画像があったときに、対応点 correspondence を取得。

-----------------------------------------------------------------------------------------------------------
■ Video Applications

●VideoSnapping: Interactive Synchronization of Multiple Videos
同じシーンを撮影した複数の映像の同期を取る方法。

●First-person Hyper-lapse videos
主観的視点のビデオから、一つの景観ビデオを生成する方法。

★●The Visual Microphone: Passive Recovery of Sound from Video

ハイスピードカメラで映像を処理することで、音を再現する手法。映像の中の物体が振動しているのを撮影して抽出。
ぎりぎり聞き取れる?聞き取れない?くらいの再現性。

●Intrinsic Video and Applications
http://media.au.tsinghua.edu.cn/yegenzhi/IntrinsicVideo.htm
ビデオを反射のレイヤーとシェーディングのレイヤーに分けて扱う。Decomposition 手法。映像を加工して再利用できる。

●Automatic Editing of Footage from Multiple Social Cameras
http://www.cs.cmu.edu/~hyunsoop/social_camera.html
様々な視点から撮影した複数の動画をつなぎ合わせて、一つの動画を作る手法。

-----------------------------------------------------------------------------------------------------------
■ Animating Characters

★●Tangible and Modular Input Device for Character Articulation

http://igl.ethz.ch/projects/character-articulation-input-device/
触れるデバイスで感覚的に操作することで、アニメーションを設定する機器。
ジョイントや骨格を選んでつなげ、反自動操作で設定できる。

●Real-Time Continuous Pose Recovery of Human Hands Using Convolutional Networks
http://yann.lecun.com/exdb/publis/index.html#fulllist
リアルタイムで手の動きをキャプチャ。機械学習。深さ画像から手の特徴点を抽出して利用。

●Interactive Manipulation of Large-Scale Crowd Animation
http://mrl.snu.ac.kr/research/ProjectCrowdEditing/crowd_editing.htm
群衆もの、クラウドアニメーションを簡単に編集する方法。ケージと呼ばれる枠を操作することで簡単に設定できる。
時間軸の設定も可能で。車に人が当たらないようになど。従来手法よりパフォーマンスが良い。

●Robust and Accurate Skeletal Rigging from Mesh Sequences
http://graphics.cs.uh.edu/ble/papers/2014s-ske/
メッシュの固まりからボーンを生成し、ボーンを大目に作り、そこから最適化してボーンの数を減らしていく。
より正確な動きが可能。

●Interactive Generalized Penetration Depth Computation for Rigid and Articulate Models Using Object Norm
http://graphics.ewha.ac.kr/polydepthg/
Generalized Penetration Depth をリアルタイムに計測。二つのモデルがどれぐらい重なったら動きが無くなるか?
リアルタイムに計算するのは、今まで出来ていなかった。

-----------------------------------------------------------------------------------------------------------
■ Computational Sensing & Display

★●Learning to be a depth camera for close-range human capture and interaction

三次元空間の奥行きを計る方法として、プロジェクタとカメラでモデルを形成、周波数で分解して精度の細かいものに。
従来手法より、反射の影響が少ない。スマートフォン搭載のカメラデバイスくらいの性能で可能。

●Temporal Frequency Probing for 5D Analysis of Global Light Transport
http://www.dgp.toronto.edu/~motoole/temporalprobing.html
三次元深さ計測の手法。従来手法より正確に。

★●Compressive Epsilon Photography for Post-Capture Control in Digital Imaging

http://www.ece.rice.edu/~sst5/siggraph.html
カメラの写真のフォーカス、絞り、いくつかの写真を撮影しておくことで、
撮影していない設定での画像を自動生成する方法。

●★Pinlight Displays: Wide Field of View Augmented-Reality Eyeglasses Using Defocused Point Light Sources

http://www.cs.unc.edu/~maimone/media/pinlights_siggraph_2014.pdf
複数のピンホールが空いたカメラ的で広い視野角を実現したカメラ。E-Techでも展示

★●Pixie Dust: Graphics Generated by Levitated and Animated Objects in a Computational Acoustic-Potential Field

http://96ochiai.ws/PixieDust/
一つの変換機から音を出してポテンシャルが安定したところに粒子がとどまる。
アレイタイプにし、3次元上のどこにでも粒子がとどまるように。粒子を移動させることも可能。

-----------------------------------------------------------------------------------------------------------
■ Typography & Illustration

●DecoBrush: Drawing Structured Decorative Patterns by Example
http://gfx.cs.princeton.edu/pubs/Lu_2014_DDS/

飾りパターンを複数登録し、ストロークを描くと、入力パターンを合成して、飾り罫を描く。

★●A Similarity Measure for Illustration Style
http://webdiis.unizar.es/~elenag/projects/SIG2014_styleSim/

イラストのスタイルを分析して、スタイルがどれだけ似ているか分析するアルゴリズム。
統一感が無いということを定量的に計る方法。クラウドソーシングを活用。

★●Exploratory Font Selection Using Crowdsourced Attributes
http://www.dgp.toronto.edu/~donovan/font/

フォントを選ぶためのインタフェース。特徴別、グループ別、似ているもの。

★●Learning a Manifold of Fonts
http://www0.cs.ucl.ac.uk/staff/N.Campbell/projects_fonts.html

フォントをミックスしたい時、10個を混ぜてあたらしいフォントを作るのは難しい。
フォントの特徴点を選択すると、その特徴を持ったフォントができる。Webのデモが動かせる。

●Look Over Here: Attention-Directing Composition of Manga Elements
http://www.cs.cityu.edu.hk/~51917739/projects/manga_composition/manga_composition.htm

漫画の研究。漫画風のコマ割り、台詞(ふきだし)の配置を視線の流れやすい順に生成、配置する方法。

-----------------------------------------------------------------------------------------------------------
■ Fabrication

★●Bridging the Gap: Automated Steady Scaffoldings for 3D Printing
http://www.loria.fr/~jdumas/publications/scaffoldings/

積層型の 3Dプリンタのサポート材の作り方。材料が少なくて、充分なサポートが得られる方法。

●Computational Light Routing: 3D Printed Fiber Optics for Sensing and Display
http://gfx.cs.princeton.edu/pubs/Pereira_2014_CLR/

3Dプリンタで好きな形の立体形状ディスプレイを作る方法。光ファイバー式のディスプレイ。
曲率や、干渉、ゆがみを最小化することができる。

★●An Asymptotic Numerical Method for Inverse Elastic Shape Design
http://gaps-zju.org/ANMdesign/

柔らかめの材質で 3Dプリントする時に、重さで変形した後の形状をシミュレーションし目的の形状を作る方法。

★●Spin-It: Optimizing Moment of Inertia for Spinnable Objects

3Dプリンタで、好きな回転体(コマ)を作る方法。回転するための重心、バランスを取った形状に修正。
コマは紀元前500年から存在、それを2014年の技術で!

★●Build-to-Last: Strength to Weight 3D Printed Objects
http://vr.sdu.edu.cn/~lulin/3DP/build-to-last.html

材料の量/コストを抑えつつも、できるだけ丈夫で壊れないもの、蜂の巣構造でモデリングする。

-------------------------------------------------------------
■ Layout Building & Scenes

●Dynamic and Robust Local Clearance Triangulations
http://graphics.ucmerced.edu/publications.html

目印と自分の角度をコンパスで調べ、後は地図を持っていれば、自分の位置が推測できる。
制約付き Delaunay 三角アルゴリズム。最小距離で最適配置できるようにする。

★●Edit Propagation using Geometric Relationship Functions
http://peterwonka.net/Publications/publications.html

家具を同じような感じで置きたい時に、手動ではなく、最適位置に配置する研究。

●Indexing 3D Scenes Using the Interaction Bisector Surface
http://homepages.inf.ed.ac.uk/tkomura/publication.html

三次元形状のtポロジーを理解した上で干渉しない配置をする方法。

●Procedural design of exterior lighting for buildings with complex constraints
http://research.michael-schwarz.com/publications.html

どこに光源を置くか?という研究。どこに集中して光を当てたいのか?どの向きに?制約条件は?
点光源。スポットライトのようなもので、あるところに集中して光を当てたり。適切な間隔で街灯を置くなど。

★●Computing layouts with deformable templates
http://www.public.asu.edu/~pchihan/tiling/

テンプレートと、テンプレートを埋め尽くす形状。テンプレートをうまく使って隙間無く埋めるためのアルゴリズム。
テトリスの駒だけを使ってハートマークを作るとか。

-----------------------------------------------------------------------------------------------------------
■ Light Transport

●Unifying points, beams, and paths in volumetric light transport simulation
http://cgg.mff.cuni.cz/~jaroslav/papers/2014-upbp/index.htm

オフラインのボリュームレンダリング手法。実現するために複数サンプリングアルゴリズムを統合し、
一番良い結果を用いる。ノイズの解析をし、複数のサンプリング方法の良いところを実装。

●High-Order Similarity Relations in Radiative Transfer
http://www.cs.cornell.edu/projects/translucency/

ボリュームレンダリングは密度などが重要だが、見た目を変えないで、ボリュームの密度を
変化させて、近似させ、計算スピードを速くするもの。パラメータは異なっても見た目が同じになるものを探したもの。
シンギュラリティセオリー手法。インバースレンダリングなど。

●Multiplexed Metropolis Light Transport
http://cg.ivd.kit.edu/english/kaplanyan/index.php

オフラインレンダリングの手法、従来よりもノイズが少ないアルゴリズム。
従来独立的な存在だった Bidirectionla Path Tracing と Metropolis Light Transport の良いとこどり。
ソースコードが公開されているので、すぐに試せる。計算物理の手法を活用。

●On-line Learning of Parametric Mixture Models for Light Transport Simulation
http://cgg.mff.cuni.cz/~jirka/papers/2014/olpm/index.htm

ガイドつきのオフラインレンダリング。何も情報が無いままレンダリングするとノイズが載るが、
あらかじめ、事前計算を少ししておくと、同じ時間でも 2回事前学習、30回事前学習すると、ノイズが少なくなる。
ソースコード公開。

●The Natural-Constraint Representation of the Path Space for Efficient Light Transport Simulation
http://cg.ivd.kit.edu/kaplanyan/

ノイズが軽減。去年の手法の改善。ロバストな手法。Half vector representation という手法で効率化。
高速の条件をサンプリングの条件に当てはめて、効率的なサンプリングをするように。


---------------------------------------------------------------------------------------------
-----------------------------------------------------------------------------------------------------------
■ Subspace & Spacetime

●Subspace Clothing Simulation Using Adaptive Bases
アダプティブベースの、布シミュレーション。しわの表現も素晴らしく、会場内、拍手喝采!

●Simulating articulated subspace self-contact
http://www.mat.ucsb.edu/~kim/

●Sensitivity-optimized Rigging for Example-based Real-time Clothing Synthesis
??

●Space-Time Editing of Elastic Motion through Material Optimization and Reduction
http://www.geometry.caltech.edu/pubs.html
??

●Animating Deformable Objects using Sparse Spacetime Constraints
https://www.mpi-inf.mpg.de/~khildebr/
形状が変形するオブジェクトのアニメーションに関して

-----------------------------------------------------------------------------
■ Mesh Based Simulation

●Animation of Deformable Bodies with Quadratic Bezier Finite Elements

変形するボディ形状のアニメーション手法。

●Adaptive Tearing and Cracking of Thin Sheets
http://graphics.berkeley.edu/papers/Pfaff-ATC-2014-07/

紙や硝子、金属箔などの薄いシートが破けたときのシミュレーション

●Codimensional Surface Tension Flow on Simplicial Complices
http://www.stanford.edu/~boolzhu/projects/codimension.htm
シャボン玉など、テンションのある物体の表現

●Multimaterial Mesh-Based Surface Tracking
http://www.cs.columbia.edu/cg/multitracker/

複数材質を持つメッシュベースの表面表現。ビー玉や複数の色を持ったカクテルようのな液体表現

●Physics-Inspired Adaptive Fracture Refinement
http://web.cse.ohio-state.edu/~whmin/publications.html
ポリゴンベースで割れる物体の表現。

-----------------------------------------------------------------------------------------------------------
■ Reflectance: Modeling, Capturing, Renderings

●genBRDF: Discovering New Analytic BRDFs with Genetic Programming
http://www.cs.virginia.edu/~gfx/pmwiki/index.php?n=Pubs.Brady2014DNA

BRDFの研究。BRDFのモデルを自動生成で力技で綺麗で実測画像に近いものを生成。
nVIDIA TESLA 24ノードを 60時間かけて計算。

★●Discrete Stochastic Microfacet Models
http://www.cs.cornell.edu/projects/stochastic-sg14/

微細な表面の構成をレンダリング。新しいモデルを提案することで実現。Multiple BRDF。
空間分割することで、法線の方向を数えることができ、向きは乱数で。

★●Rendering Glints on High-Resolution Normal-Mapped Specular Surfaces
http://www.eecs.berkeley.edu/~lingqi/

高解像度のスペキュラーのレンダリング。スプーンの表面の傷やラメの輝きなどの表現。
現実的なサンプリング数で実現。法線の分布を関数として考える。4Dのガウシアン関数を積分。

●Reflectance Scanning: Estimating Shading Frame and BRDF with Generalized Linear Light Sources
BRDFを1D Traceで実現?

●A Comprehensive Framework for Rendering Layered Materials
http://www.cs.cornell.edu/projects/layered-sg14/

日常生活にある物体はレイヤーになっていて、硝子との境界など、従来CGでは見過ごされていた。
レイヤーでは屈折か反射か。それらをモデル化し、フーリエ級数で近似して計算。

-----------------------------------------------------------------------------------------------------------
■ Shape Analysis

●Near-Regular Structure Extraction Using Linear Programming
http://graphics.stanford.edu/~huangqx/Papers.htm

小さな繰り返しが何度も出現する表面。これらを検出し、全体の形を調整するなど。
シーサーの頭の渦巻きや、パイナップルのようなものに適応可能。

★●Relating Shapes via Geometric Symmetries and Regularities
http://www.tevs.eu/project_sig14.html

あるモデルの中で、形が違うものでも、同じ役目をする部分を抜き出す方法。燭台から、ろうそく部分を抽出するなど。

●Shape2Pose: Human-Centric Shape Analysis
http://www.cs.princeton.edu/~vk/projects/Shape2Pose/

人工物の三次元モデル、木馬や、バイク、自転車など、人が使うように作られているので、
それを使う人のモデルを自動計算する手法。どの部分がどこに接地するのか想定、確立分布で計算。

●Mesh saliency via spectral processing
http://ralph.cs.cf.ac.uk/publications.html

3Dモデルの尖り具合、デコボコ具合を検出する。

★●Inverse Procedural Modeling of Facade Layouts
https://sites.google.com/site/yandongming/

モデリングを自然言語で表現する。例えばビルの窓の並びなどを表現。

-----------------------------------------------------------------------------------------------------------
■ Hair & Collisions

●Defending Continuous Collision Detection against Errors
http://web.cse.ohio-state.edu/~whmin/publications.html

リボンのようなもののコリジョン判定。エラーをうまく排除する手法

●Adaptive Nonlinearity for Collisions in Complex Rod Assemblies
http://www.cs.columbia.edu/cg/adonis/

曲がる物体の衝突の際の動きを表現する手法。自然な髪の毛の表現のため。ちょっとキモい。

●A Reduced Model for Interactive Hairs
http://gaps-zju.org/reducedhair/

インタラクティブ操作可能な髪の毛表現。フルシミュレーションとインタタラクティブの良いとこどり。

●Capturing and Stylizing Hair for 3D Fabrication

人の映像に自由な髪型を追加する手法。3Dプリンタ出力などに応用。

●Robust Hair Capture Using Simulated Examples
http://www.hao-li.com/Hao_Li/Hao_Li_-_publications_%5BRobust_Hair_Capture_Using_Simulated_Examples%5D.html

画像で撮影した髪をシミュレーションに応用。

-----------------------------------------------------------------------------------------------------------
■ Image Tricks

●Automating Image Morphing using Structural Similarity on a Halfway Domain
http://research.microsoft.com/en-us/um/people/hoppe/proj/morph/

モーフィングの計算。従来手法だと遮蔽されているものが難しい。Halfway domain 手法。
写真から物を消す手法。PHotoMatchの改良。背景の人工物が規則的に並んでいるのを活用。

★●3D Object Manipulation in a Single Image using Stock 3D Models
http://www.cs.cmu.edu/~nkholgad/om3d.html

写真の中のオブジェクトを三次元的に動かす方法。
写真の中のライティングを推定し、3Dモデルをリライティング。

●Bilateral Texture Filtering
BLF テクスチャフィルタリングの改善。ピッチシフト手法を活用。

●Fast Local Laplacian Filters: Theory and Applications
http://www.di.ens.fr/~aubry/llf.html

画像のフィルタリングの研究。エッジ画像を高速にスムージングする。

★●Image Completion using Planar Structure Guidance
https://sites.google.com/site/jbhuang0604/publications/struct_completion
画像の中の任意のオブジェクトを切り抜いても、周辺から適切な画像を再構成。

-----------------------------------------------------------------------------------------------------------
■ Interactive Modeling

●PushPull++
SketchUp の PushPull の拡張、垂直に引き出すだけでなく、傾いているところを引き出すこともできる。

●Flow complex based shape reconstruction from 3D curves
http://www.cs.toronto.edu/~sadri/page4/files/d76b1e69c42fda288de3495bd502ecd4-13.html

三次元的なカーブ、ワイヤーフレームを入力して、それに対して動的に面を貼る。三次元スケッチに面を貼る。
アルゴリズムは、FLow Complex ボロノイ分割に似た原理、空間中に点があるとすると、
内側と外側を区別し、それを通る面を貼る。最寄りの入力点から離れている点を動かす。空間をラベリング。

★●True2Form: 3D Curve Networks from 2D Sketches via Selective Regularization
http://www.cs.ubc.ca/~brianxu/publications/true2form/

二次元の線画を三次元化する。既存研究は線画のみであった。
アルゴリズムは、考えられる制約を順番を試してみて、充足度合いによって使うか使わないか決めていく。

●Interactive Shape Modeling using a Skeleton-Mesh Co-Representation
http://www2.compute.dtu.dk/~janba/pam/

Generalizzed Cylinder による形状表現。中心線、スケルトンを使った手法。
三次元モデルからの変換を、サーフェースに戻す、インタラクティブモデリング。

●Vector Graphics Complexes
http://www.dalboris.com/research/vgc/

2Dグラフィックスを頂点、辺、面のグラフで表現する。
トポロジーを表現する方法。トポロジーを意識した操作ができる。

-----------------------------------------------------------------------------------------------------------
■ Fields on Surfaces

●Frame Fields: Anisotropic and Non-Orthogonal Cross Fields
http://igl.ethz.ch/projects/frame-fields/

立体の各点の接ベクトル平面を作る。一様な正方形で敷き詰められるように変形。

●Robust Field-Aligned Global Parametrization
http://ashishmyles.com/research.shtml

シームレスな四角形メッシュを全体に貼付けよう。特異点で分割するように。
分割したパッチ間の繋がりを考慮する。単純になるようなトポロジーを評価。

●Exploring Quadrangulations
http://www.pengchihan.co/?page_id=14

各パッチについて様々な四角形メッシュの敷き詰める方法を検討する。ユーザーが選択する。

●Weighted Triangulations for Geometry Processing
http://www.geometry.caltech.edu/pubs.html

三角形メッシュの拡張点に重みを与える。建築における自立設計などが計算できる。

●Robust Polylines Tracing for N-symmetry Direction Field on Triangulated Surfaces
http://alice.loria.fr/index.php/publications.html?redirect=0&Paper=STREAM@2014

ベクトル場を基に、流線を描く。流線が三角メッシュ内を通る際に交差しないように、マージしないようにする。

---------------------------------------------------------------------
■Fluids

●Blending Liquids
http://www.prism.gatech.edu/~kraveendran3/research/BlendingLiquids/index.html

2種類の流体の動きをブレンドするもの。

●Augmented MPM for Phase-Change and Varied Materials
http://hydra.math.ucla.edu/~alexey/research/melt.html

素材が解けたり、分解したりする変化する流体のマテリアル表現。論文ビデオの超高速再生。

●From Capture to Simulation - Connecting Forward and Inverse Problems in Fluids
http://www.cs.ubc.ca/labs/imager/tr/2014/FromCaptureToSimulation/

キャプチャした煙などから、流体シミュレーション計算に活用する方法。

●Smoke Rings from Smoke
http://page.math.tu-berlin.de/~weissman/
煙草の煙などで生成するスモークリングの生成をシミュレーション。

●Detailed Water on Coarse Grids: Combining Surface Meshes and Adaptive Discontinuous Galerkin
http://www.cs.ubc.ca/~essex/dgwater/
ディテールに凝った水の表現?

-----------------------------------------------------------------------------------------------------------
■ Hardware Systems

●AMFS: Adaptive Multi-Frequency Shading for Future Graphics Processors

新しいグラフィックスハードウェアの提案。シェーディングのコストを軽減するための手法。
あるパッチの空間内でキャッシュを使い、ピクセルシェーダーのルックアップテーブルでシェーディングを使い回す。

●Extending the Graphics Pipeline with Adaptive, Multi-Rate Shading
http://graphics.cs.cmu.edu/projects/multirate/

今のハードウェアの限界、画面サイズが大きくなり負荷が増えている。
クオリティを変えながら、シェーディングの負荷を変え、アダプティブな方法を使う。
ラスタライズの先から、荒いフラグメントでいったん評価し、その後ピクセル単位の評価をする。

●RayCore: A ray-tracing hardware architecture for mobile devices
http://rayman.sejong.ac.kr/raycore

モバイルデバイス向けのリアルタイムレイトレーシングハードウェア。
FPGAで試作。CPUとのバスがあり、衝突判定につかう KD-Tree の計算ユニットを持つ。
多くのキャッシュで効率を上げる

★●Embree - A Kernel Framework for Efficient CPU Ray Tracing
http://www.sci.utah.edu/~wald/Publications/

レイトレーシングのためのライブラリ。インターセクションのため。SSE, AVXで最適化。
APIが決まっていて、レンダラで簡単に利用することができる。オープンソースで公開予定。
BVH4, 複数の例を同時にあつかって、同時に衝突判定し、SSEで高速に実行可能。
http://embree.github.com/

●Darkroom: Compiling High-Level Image Processing Code into Hardware Pipelines
http://graphics.stanford.edu/papers/darkroom14/

画像虜師用の言語を開発。ハードウェアを作るような言語を設計。目的は画像処理プロセッサを簡単に作るため。
ロジックとバッファを持ったパイプラインが作られる。

-----------------------------------------------------------------------------------------------------------
■ Changing Your Perception

★●Modeling and Optimizing Eye Vergence Response to Stereoscopic Cuts
http://resources.mpi-inf.mpg.de/VergenceModel/

Vergence(3D映画のシーンが切り替わる時)どのぐらい時間がかかるのか?
アイトラッカーで実験。近くから遠く、遠くから近くに変化する時の方が目の追従が速い。

★●How Do People Edit Light Fields?
http://giga.cps.unizar.es/~ajarabo/pubs/lfeiSIG14/

Light Fields を人間はどう編集するのか?深さつき画像の編集方法。
ユーザーが指定した場所にフォーカスが合うなど。

★●Simulating and compensating changes in appearance between day and night vision
http://luminance-retargeting.bangor.ac.uk/

暗い部屋で画面を見ている時と、あかるい部屋で画面を見ている時の、最適なコントラストの調整。
20代の人と、80代の人用の調整もあり。テレビの時、スマホやタブレットの時ごとに調整。

★●Style Transfer for Headshot Portraits
http://www.connellybarnes.com/work/

ポートレート写真を、雰囲気のある写真に修正。入力写真と、参照画像から自動生成。
誰でも有名人風のポートレートが作成可能。

★●Transient Attributes for High-Level Understanding and Editing of Outdoor Scenes
http://cs.brown.edu/~ren/

あるシーンに対して、様々な季節の画像を作る。学習データを大量に利用。春と夏のピクセルの色変換を計算。

-----------------------------------------------------------------------------------------------------------
■ Fast Rendering

●Progressive Light Transport Simulation on the GPU: Survey and Improvements
http://cgg.mff.cuni.cz/~jaroslav/papers/2014-gpult/

GPU でパストレーシング系の手法をいろいろ網羅的に実装して比較。GTX580 と GTX 680 で比較。
ダイバージェンスが問題になる。Streaming 手法が一番速かった。相互パストレーシングは、筆者手法が高速。
KD-tree, Full Hash Grid, Stochastic Hash Grid 手法を比較。Full Hash Grid が速かった。
現在のアルゴリズムはシーン依存。

●A Practical Algorithm for Rendering Interreflections with All-frequency BRDFs
http://cg.cs.tsinghua.edu.cn/people/~kun/interreflection/

グロッシーな照明、ディフューズについて、インタラクティングレンダリング。今は1fps 以下しか出ない。
BRDF などあらゆるパラメーターを Spherical Gaussian で近似して、計算。

●Compact Precomputed Voxelized Shadows
http://www.cse.chalmers.se/~d00sint/

事前計算した影を利用して、シーンを美しくレンダリング。大量のシャドーマップを OCtree で圧縮。1時間ぐらい事前計算。
圧縮前は 130GBを、100MBくらい。

●Instant Convolution Shadows for Volumetric Detail Mapping
http://www.ii.uib.no/vis/team/bruckner/publication/Patel-2013-ICS

サーフェスにボリューム(ディテール)レンダリングを後づけて構成、影も後でつけることができる。

●Dynamic Ray Stream Traversal
http://fileadmin.cs.lth.se/graphics/research/papers/2014/drst/

レイトレーシングの BVH のトラバースを効率的に行う手法。BVHの手法は、独立ノード。
ノードごとにレイをまとめて交差判定するレイストリーム手法。30%程度の効率化がはかれる。

-----------------------------------------------------------------------------------------------------------
■ Stretching & Flowing

●Deformation Embedded for Point-Based Elastoplastic Simulation
http://sealab.cs.utah.edu/Papers/Jones-2014-DEF/

針金みたいなモデル、弱い力ではバネ、強い力だと曲がってしまうようなものの表現。

●Exponential Integrators for Stiff Elastodynamic Problems

シミュレーションする時に、長い時間安定したシミュレーションをする手法。

●Unified Particle Physics for Real-Time Applications
http://blog.mmacklin.com/flex/

ガス、液体、変形するもの、それらがふれあったり、ぶつかったりを表現するフレームワーク。

●Projective Dynamics: Fusing Constraint Projections for Fast Simulation
http://lgg.epfl.ch/publications.php

体積保存、質量保存、ユーザーが定義した変形などの制約を与えられたもののシミュレーション。

●Active Volumetric Musculoskeletal Systems
https://www.cs.ubc.ca/paper/active-volumetric-musculoskeletal-systems

筋肉を骨を使って、そのシミュレーションでアニメーション。
データドリブンの手法を元に、目のモデルを作って利用。

-----------------------------------------------------------------------------------------------------------
■ Depth for All Occasions

●Coupled Structure-from-Motion and 3D Symmetry Detection for Urban Facades
http://www.duygu-ceylan.com/duygu-ceylan/symmCalib.html

都市部の建築物の対称性を活用し、マッチングの精度を上げるもの。ドラえもんのパクリ映像!

★●Painting-to-3D Model Alignment Via Discriminative Visual Elements
http://www.di.ens.fr/willow/research/painting_to_3d/

機械学習することで、絵画の描画場所を識別。

●Color Map Optimization for 3D Reconstruction with Consumer Depth Cameras
http://vladlen.info/publications/color-map-optimization-for-3d-reconstruction-with-consumer-depth-cameras/

三次元再構成、深度カメラでもカラーマップのスキャン精度を上げるアルゴリズム。

★●Real-Time Non-Rigid Reconstruction Using an RGB-D Camera
http://www.graphics.stanford.edu/~niessner/zollhoefer2014deformable.html

あらかじめテンプレートモデルを取得しておくことで、一般的なカメラでも3Dモデルを再構成する方法。

●Proactive 3D Scanning of Inaccessible Parts
http://vcc.siat.ac.cn/index/getInfo?title_id=453&id=459&to_path=project

3Dスキャン時にユーザーが積極的に修正箇所を指定すると、システムが軌跡を計算して静的な部分を分離し再構成する。

-----------------------------------------------------------------------------------------------------------
■ Surfaces, Shapes & Maps

●Topology-Varying 3D Shape Creation via Structural Blending
http://gruvi.cs.sfu.ca/project/topo/

[Kalogerakis12] トポロジーのバリエーションがあまりでない問題があった。
トポロジーが変換する、パーツが変わるような様々なバリエーションモデルがリアルタイムで生成できる。

●Continuity Transition With a Single Regular Curved-Knot Spline Surface

●L1-based Construction of Polycube Maps from Complex Shapes
http://www.cad.zju.edu.cn/home/hj/index.xml

ゆがみが少ないポリキューブを生成する。イテレーションを繰り返して最適化。

●Harmonic Parameterization by Electrostatics
http://homepages.inf.ed.ac.uk/tkomura/publication.html

静電気学の考え方を導入して、サーフェース表面上に静電気をばらまいて、電荷を求めて利用。
全ての空間をパラメータ化でき、局所化しない手法。

●Decoupling Noises and Features via Weighted l1-analysis Compressed Sensing
http://staff.ustc.edu.cn/~lgliu/Projects/2014_DecouplingNoise/default.htm

スキャンデータのノイズつきのメッシュをシャープさを保ちつづ、スムージングする方法。
最適なパラメータを自動計算してスムージング、L1 解析で特徴を抽出しながらスムージングする。

-----------------------------------------------------------------------------------------------------------
■ Shady Images

★●AverageExplorer: Interactive Exploration and Alignment of Visual Data Collections
http://www.eecs.berkeley.edu/~junyanz/projects/averageExplorer/

大量の画像から目的の画像を探すシステム。システムは似た画像の平均を表示し、ユーザーは平均画像を編集して画像検索。
大量のネコ画像から、好きな猫顔を探せるシステム!

●Intrinsic Images in the Wild
http://opensurfaces.cs.cornell.edu/intrinsic/

写真の拡散反射率を計算するアルゴリズム。二段階のクラウドソーシングを活用。

★●Exposing Photo Manipulation from Shading and Shadows
http://graphics.berkeley.edu/papers/Kee-EPM-2014-XX/index.html

写真の陰影から本物か合成写真かを見分ける手法。屋外(日光)の写真にのみ適応できる。
プーチンが熊に乗っている写真がウソかホントか?など。

★●Automatic scene inference for 3D object compositing
http://kevinkarsch.com/?portfolio=automatic-scene-inference-for-3d-object-compositing

写真の中に 3Dモデルを埋め込める。自動で法線とライティングを計算。機械学習を利用したもの。

-----------------------------------------------------------------------------------------------------------