We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
アーキテクチャの全体像 上図は、Occupancy Networks の全体像を示した図である。 Occupancy Networks は、入力された3D空間上のメッシュの各頂点に対して、分類境界面での分類確率を出力するネットワークであり、以下のように定式化される。 encoder 部分のネットワークは、以下の図のように、3D再構築タスク(image-to-3D、点群推定、ボクセル推定)に応じて構成が変わる。 Occupancy Networks の黄色枠には、この3D再構築タスクに応じた encoder からの出力 c∈Rc と T 個の3次元頂点座標が入力される。
Occupancy Networks の損失関数 Occupancy Networks は、以下の式で定義された損失関数を最小化するように学習する。 この損失関数は、対象メッシュの3Dバウンディングボックス内の点をランダムに K個サンプリングすることにより、計算される cross entropy 損失関数になっている。
また、以下の KL ダイバージェンスの項が追加された損失関数を用れば、VAE のような probabilistic latent variable models の学習にも適用出来る。 ※ この KL ダイバージェンス追加の損失関数は、Occupancy Networks の学習用の損失関数ではなく、別の VAE のようなモデル用の損失関数であるという理解でよい?
推論処理 本手法では、学習済み Occupancy Networks から、新しい観測点 x に対応する等平面 [isosurface](同じ値で構成される面)を抽出するために、上図のような Multiresolution IsoSurface Extraction (MISE) のアルゴリズムを導入している。 ※ この等平面が Occupancy Networks での分離境界面に対応する?
この MISE は、hierarchical isosurface extraction algorithm の一種で、octree(八分木)を繰り返し適用することで、空間内の全点をサンプリングすることなく、Occupancy Networks から高解像度のメッシュを構築することが可能となる。 具体的には、以下のような処理を行う。
既存の image-to-3D モデルとの定性比較検証 既存の image-to-3D モデルと比較して、本手法では、最も品質の高いメッシュを3D再構築出来ている。
既存の点群 3D Reconstruction モデルとの定量比較検証 既存の点群 3D Reconstruction モデルと比較して、本手法では、最も高い品質スコアを実現している。
ボクセル高解像度化 [Voxel Super-Resolution] タスクでの定量検証
The text was updated successfully, but these errors were encountered:
No branches or pull requests
0. 論文情報・リンク
1. どんなもの?
2. 先行研究と比べてどこがすごいの?
しかしながら、2D画像分野における DNN や生成モデルの大きな成功にも関わらず、3D分野では3D特有のデータ構造(ボクセル、点群、メッシュ)を DNN や生成モデルで3D再構築すると、計算効率や品質が不十分であるという問題が存在する。
本手法では、Occupancy Networks での分類境界面でメッシュ表面を暗黙的 [implicitly] に表現することで、メッシュ表面の詳細(細かな凹凸など)を3D再構築することを実現し、3D再構築における品質や計算効率を向上させている。
3. 技術や手法の"キモ"はどこにある?
アーキテクチャの全体像



上図は、Occupancy Networks の全体像を示した図である。
Occupancy Networks は、入力された3D空間上のメッシュの各頂点に対して、分類境界面での分類確率を出力するネットワークであり、以下のように定式化される。
encoder 部分のネットワークは、以下の図のように、3D再構築タスク(image-to-3D、点群推定、ボクセル推定)に応じて構成が変わる。
Occupancy Networks の黄色枠には、この3D再構築タスクに応じた encoder からの出力 c∈Rc と T 個の3次元頂点座標が入力される。
Occupancy Networks の損失関数

Occupancy Networks は、以下の式で定義された損失関数を最小化するように学習する。
この損失関数は、対象メッシュの3Dバウンディングボックス内の点をランダムに K個サンプリングすることにより、計算される cross entropy 損失関数になっている。
また、以下の KL ダイバージェンスの項が追加された損失関数を用れば、VAE のような probabilistic latent variable models の学習にも適用出来る。

※ この KL ダイバージェンス追加の損失関数は、Occupancy Networks の学習用の損失関数ではなく、別の VAE のようなモデル用の損失関数であるという理解でよい?
推論処理

本手法では、学習済み Occupancy Networks から、新しい観測点 x に対応する等平面 [isosurface](同じ値で構成される面)を抽出するために、上図のような Multiresolution IsoSurface Extraction (MISE) のアルゴリズムを導入している。
※ この等平面が Occupancy Networks での分離境界面に対応する?
この MISE は、hierarchical isosurface extraction algorithm の一種で、octree(八分木)を繰り返し適用することで、空間内の全点をサンプリングすることなく、Occupancy Networks から高解像度のメッシュを構築することが可能となる。
具体的には、以下のような処理を行う。
このボクセル点は、Marching Cubes algorithm を適用した場合に、メッシュと交差するボクセル点となっている。
4. どうやって有効だと検証した?
既存の image-to-3D モデルとの定性比較検証

既存の image-to-3D モデルと比較して、本手法では、最も品質の高いメッシュを3D再構築出来ている。
既存の点群 3D Reconstruction モデルとの定量比較検証

既存の点群 3D Reconstruction モデルと比較して、本手法では、最も高い品質スコアを実現している。
ボクセル高解像度化 [Voxel Super-Resolution] タスクでの定量検証

5. 議論はあるか?
6. 次に読むべき論文はあるか?
7. 参考文献
The text was updated successfully, but these errors were encountered: