AICU media ライターのやまぐちです!現在開催されているSIGGRAPH Asia 2024の中で気になった研究7選をお届けします。
Technical Papers Programの各セッションの開催情報についてはこちら
InstantDrag: Improving Interactivity in Drag-based Image Editing (InstantDrag:ドラッグ操作で画像編集のインタラクティブ性を向上)
発表セッション: It's All About Change: Image Editing (変えることのすべて:画像編集)
こちらはTPFFでのパフォーマンスが面白かったのでピックアップしました。紹介動画が作り込まれており、とても印象的でした。30秒程度の発表で来場者の記憶に刻み込むのは簡単ではありませんが、成功すると注目度が一気に上がりますね。
デモのためのソースコードなども開発者によって公開されています
https://joonghyuk.com/instantdrag-web/
Computational Biomimetics of Winged Seeds (翼を持つ種子(翼果)の計算生物模倣学)
発表セッション: Geometry and Fabrication (ジオメトリと組み立て)
https://asia.siggraph.org/2024/?post_type=page&p=32163&sess=sess109
翼を持つ種子がどのように飛ぶか、という研究。種子の飛び方を定式化しています。これにより、自然界を凌駕する新しい有翼種子デザインを発見できるそうです。たくさんの種子を実際に集めて3Dスキャンしているところに魅力を感じました。
研究者の公開サイトはこちら
NeuSmoke: Efficient Smoke Reconstruction and View Synthesis with Neural Transportation Fields (ニュースモーク: ニューラル輸送場を用いた効率的な煙の再構成と視界合成)
発表セッション: Path Guiding, Scattering (パスガイド、散乱)
https://asia.siggraph.org/2024/?post_type=page&p=32163&sess=sess110
煙を合成するシミュレーション。上の画像からも、2色の煙がとてもきれいに混ざっていることが分かります。TPFFで流れていたデモ動画ではさらに分かりやすく、普段シミュレーションを扱う人間としてとても興味深かったです。
Quark: Real-time, High-resolution, and General Neural View Synthesis (クォーク:リアルタイム、高解像度、汎用的なニューラル・ビュー合成)
発表セッション: Look at it Differently: Novel View Synthesis (見方を変えよう: 新しいビューの合成)
Googleによる発表です。3D シーンを再構築し、NVIDIA A100 で 30fps で 1080p 解像度の新しいビューをレンダリングします
https://quark-3d.github.io/
ArXivに置かれた論文を解説しながら朗読してくれる動画を見つけました…!
普通の動画からDepth Mapが生成でき、元の動画の解像度が粗くても高画質な動画に変換して新しいビューを作り出すことができるという研究です。NVIDIA A100といえば、AICUでもGoogle Colabでよく使うプロ向けGPU環境です。この研究にもNeural View Synthesis、Neural 3D、Neural Renderingといった手法が用いられており、今後、NeRFで有名になったNeural Fields (ニューラル場)の応用が一般化していくことが予想できます。
End-to-End Hybrid Refractive-Diffractive Lens Design with Differentiable Ray-Wave Model (微分可能な光波モデルを用いた端から端までハイブリッド屈折・回折レンズ設計)
光学系設計に革命かも。サウジアラビアのキングアブドラ科学技術大学KAUSTの研究チームが、屈折と回折を組み合わせたハイブリッドレンズの設計を可能にするEnd-to-Endモデルを開発しています。このEnd-to-Endモデル「Ray-Wave Model」は、回折光学素子(DOE)の位置を最適化することで、収差補正と被写界深度拡張を同時に実現しており、スマホカメラやHMDにも応用可能。レンズのサイズがとても小さいのですが、それでもレンズとしてしっかりと機能するようで驚きました。どのような使い心地なのか非常に気になります。
おまけ:KAUSTの研究者でDeepLensという研究をされている方もいらっしゃいます。Differentiable ray-tracing and wave-propagation model、という研究のようです。
MiNNIE: a Mixed Multigrid Method for Real-time Simulation of Nonlinear Near-Incompressible Elastics (MiNNIE:非線形近圧縮性弾性体のリアルタイムシミュレーションのための混合マルチグリッド法)
https://asia.siggraph.org/2024/presentation/?id=papers_148&sess=sess141
発表セッション:Elastics / Solvers / Neural Physics (弾性/ソルバー/ニューラル物理学)
https://asia.siggraph.org/2024/?post_type=page&p=32163&sess=sess141
キャラクターモデルをリアルタイムで変形させたりアニメーションさせたりするための新たな手法とのことです。キャラクターの動きがスライムのようになるのですが、リアルタイムのシミュレーションという点が興味深いです。
A Unified MPM Framework supporting Phase-field Models and Elastic-viscoplastic Phase Transition (位相場モデルと弾性-粘塑性相転移をサポートする統合MPMフレームワーク)
https://asia.siggraph.org/2024/presentation/?id=tog_109&sess=sess144
発表セッション: Fluid Simulation (流体シミュレーション)
https://asia.siggraph.org/2024/presentation/?id=tog_109&sess=sess144
粘度の違うものを混ぜるシミュレーションです。個人的にはこういうシミュレーションが大好き! デモ動画では小麦粉に次第に牛乳を混ぜているようなシミュレーション結果が流れていました。このセッションは実際に足を運んでみてさらに詳しい情報を知りたいです。
他にも興味深い発表がいっぱい!
以上、流体好きが選ぶ、論文7本でした!
TPFFでは277本ぐらい発表があったので、個別に扱うと驚きやさんみたいになってしまいますが、WOW!は大事ですね。
他にもこんな発表がありました。
技術的、もしくは数理としての難しさなどはあると思いますが、やはり絵作りにおいて驚きのある映像をつくる、かつ物理的に正しいと考えられる方法を探求されているところは興味深く、本編の発表にも足を向けていきたいと思います!
この記事に「いいね!」と思ったら、いいねとフォロー、おすすめをお願いします!
https://note.com/aicu/ X(Twitter)@AICUai
★会期中「これを取材して!!」というリクエストもDMでどうぞ!
このようなイベントのレポートに興味がある方はこちらもオススメ
https://ja.aicu.ai/category/events/
この記事に「いいね!」と思ったら、いいねとフォロー、おすすめをお願いします!