- 这个列表并不详尽,因为隐式神经表征是一个快速发展的研究领域,迄今已有数百篇论文。
- 此列表旨在列出相隐式神经表示的关键概念和基础应用的论文。 如果您想在该领域开始,这是一个很棒的阅读列表!
- 因为对于大多数论文来说,最重要的是论文概要和贡献。
- 待改格式
- 论文、链接、源码
- 贡献
- 大概思想
- Vincent Sitzmann: Implicit Neural Scene Representations (Scene Representation Networks, MetaSDF, Semantic Segmentation with Implicit Neural Representations, SIREN)
- Andreas Geiger: Neural Implicit Representations for 3D Vision (Occupancy Networks, Texture Fields, Occupancy Flow, Differentiable Volumetric Rendering, GRAF)
- Gerard Pons-Moll: Shape Representations: Parametric Meshes vs Implicit Functions
- Yaron Lipman: Implicit Neural Representations
- 隐式神经表示(有时也称为基于坐标的表示)是一种新的参数化信号的新方法。 传统的信号表示通常是离散的 - 例如,图像是像素的离散网格,音频信号是幅度的离散样本,并且3D形状通常被参数化为体素,点云或网格的网格。 相反,隐式的神经表示参数化信号作为连续函数,该函数映射信号的域(即,坐标,例如图像的像素坐标)到该坐标处的任何坐标(对于图像,r,g ,b颜色)。 当然,这些函数通常没有分析易行 - 无法“记下”作为数学公式参数化自然图像的功能。 因此,隐式神经表示通过神经网络近似该功能。
- 隐式神经表示具有若干好处:首先,它们不再耦合到空间分辨率,例如图像耦合到像素的数量。 这是因为它们是连续的功能! 因此,参数化信号所需的存储器独立于空间分辨率,并且仅具有升压信号的复杂性的尺度。 另一个推论是隐式表示具有“无限分辨率” - 它们可以在任意空间分辨率下进行采样。这可以立即有用,例如超分辨率,或者在3D和更高尺寸中的参数化信号中有用,因为传统的3D表示的随着空间分辨率的快速增长存储空间也会急速增长。
- 然而,在未来,隐式神经表示的关键在于直接在这些表示的空间中直接运行。 换句话说:什么是“卷积神经网络”相当于在由隐式表示表示的图像上运行的神经网络? 像这样的问题为一类独立于空间分辨率的算法提供了一条道路!
- the Autonomous Vision Group at MPI-IS Tübingen and University of Tübingen:在论证隐式神经表示的优越性后还做了一系列的相关工作!
- 该实验室最早论证了隐式神经表示在参数化几何中优于基于网格、点和网格的表示,并且无缝地允许学习形状的先验知识
- (同年还有另外几篇类似的工作,请看第3节)
- Occupancy Networks: Learning 3D Reconstruction in Function Space (CVPR2019)有源码
- 提出了一种新的三维表示:occupancy function、展示了这种表示形式:在各种输入类型(体素、点云、网格、图片)下如何创建三维物体、论证了这种表现形式:能够生成高质量的三维网格并且优于现有技术
- Convolutional Occupancy Networks(ECCV2020)有源码
- 针对Occupancy Network的缺点:observation与3d point之间无相关性,做出的改进
- Differentiable Volumetric Rendering: Learning Implicit 3D Representations without 3D Supervision(CVPR2020)有源码
- 贡献:2D图像的纹理和形状的三维重建
- 针对现有隐式表示的缺点:都是使用真实(合成)的3D数据进行学习=>提出利用2D图像和相机参数进行重建的DVR模型
- 该实验室最早论证了隐式神经表示在参数化几何中优于基于网格、点和网格的表示,并且无缝地允许学习形状的先验知识
- DISN: Deep Implicit Surface Network for High-quality Single-view 3D Reconstruction (NeurIPS 2019)有源码
- 贡献:单视图的三维重建
- 针对现有的缺点、根据隐式表示的思想(SDF而不是Occupancy)、提出了DISN模型:相机参数预测+单张图片=>预测SDF=>使用Marching Cubes来进行可视化论证重建有效性
- 待看&待修正
- 以下三篇论文首先(同时)证明了隐式神经表示在参数化几何中优于基于网格、点和网格的表示,并且无缝地允许学习形状的先验知识。
- DeepSDF: Learning Continuous Signed Distance Functions for Shape Representation (Park et al. 2019)
- Occupancy Networks: Learning 3D Reconstruction in Function Space (Mescheder et al. 2019)
- IM-Net: Learning Implicit Fields for Generative Shape Modeling (Chen et al. 2018)
- 从那时起,隐式神经表示在三维计算机视觉中取得了最先进的成果
- 论证如何从没有地面真值符号距离值的原始数据中学习 SDFs
- 同时提出了适合大规模三维场景的混合体素网格/隐式表示方法。
- 演示如何利用正弦激活函数,通过单个隐式神经表示来参数化房间规模的三维场景。
- Implicit Neural Representations with Periodic Activation Functions (Sitzmann et al. 2020)
- 论证从原始点云中学习无符号距离场,从而消除水密表面的要求。
- Neural Unsigned Distance Fields for Implicit Function Learning (Chibane et al. 2020)
- 仅从2D图像中监督学习(“逆图形学”)
- 提出通过a differentiable ray-marcher从2D图像中学习3D形状和几何形状的隐式表示,并通过超网络从单个图像中重建的3D场景概括。这是针对单一对象场景展示的,也是简单的房间规模场景
- 使用完全连接的神经网络和分析梯度将基于LSTM的Ray-Marcher替换为SRNS,使最终的3D几何形状轻松提取。
- 提出了基于位置编码、体绘制和光线方向调节的单场景高质量重建方法,并对三维隐式表示的体绘制进行了大量的研究。一份专门针对NeRF后续工作的策划清单( see awesome-NeRF)
- Neural Radiance Fields (NeRF) (Mildenhall et al. 2020)
- 演示如何从单个观测对象来训练场景表示网络
- 提出一种基于局部特征的NeRF方法,该方法是根据PiFU中提出的从接触图像中提取的摄像机光线的局部特征
- Pixel-NERF (Yu et al. 2020)
- 针对复杂三维场景的重建问题,提出了基于位置编码的球体追踪算法,并提出了一种基于表面法线和视线方向的球体追踪算法。
- Multiview neural surface reconstruction by disentangling geometry and appearance (Yariv et al. 2020)
- 从3D表示中监督学习
- Pifu首先提出了将隐式表示条件化为从上下文图像中提取的局部特征的概念。后续工作实现了照片真实感、实时重渲染。
- (待改)Texture Fields: Learning Texture Representations in Function Space
- 对于动态场景
- 首先提出了通过用隐式神经表示来表示4D扭曲场来学习时空神经隐式表示。
- Occupancy flow: 4d reconstruction by learning particle dynamics (Niemeyer et al. 2019)
- 同时提出的以下论文仅利用类似的方法来通过神经辐射场地从2D观察中重建动态场景。
- D-NeRF: Neural Radiance Fields for Dynamic Scenes
- Deformable Neural Radiance Fields
- Neural Radiance Flow for 4D View Synthesis and Video Processing
- Neural Scene Flow Fields for Space-Time View Synthesis of Dynamic Scenes
- Space-time Neural Irradiance Fields for Free-Viewpoint Video
- Non-Rigid Neural Radiance Fields: Reconstruction and Novel View Synthesis of a Deforming Scene from Monocular Video
- 以下四篇论文同时提出了对存储在体素网格中的局部特征进行隐式神经表示:
- 以下论文对局部面片上的深符号距离函数进行了条件化处理:
- 利用场景表示网络学习的特征对三维对象进行弱监督语义分割
- 提出了从上下文图像中提取光线特征的局部条件隐式表示方法。
- 通过超级网络进行元学习
- Scene Representation Networks: Continuous 3D-Structure-Aware Neural Scene Representations (Sitzmann et al. 2019)
- 提出了一种基于梯度的隐式神经表征元学习方法
- MetaSDF: MetaSDF: Meta-Learning Signed Distance Functions (Sitzmann et al. 2020)
- 展示如何仅从单图像监督中学习3D隐式表示
- 为NeRF探索了基于梯度的元学习
- 提出了位置编码
- Neural Radiance Fields (NeRF) (Mildenhall et al. 2020)
- 提出了具有周期性非线性的隐含表示
- Implicit Neural Representations with Periodic Activation Functions (Sitzmann et al. 2020)
- 探索NTK框架中的位置编码
-
首先提出通过神经网络隐式地参数化图像。
-
提出了一种基于超网络的图像隐式表示方法。
- Implicit Neural Representations with Periodic Activation Functions (Sitzmann et al. 2020)
-
将像素位置的Jacobian参数化为视图,时间,照明等到自然内插图像。
-
提出了一种基于超网络的 GAN 图像处理方法。
- Learning Continuous Image Representation with Local Implicit Image Function (Chen et al. 2020)
- 下面的论文提出用每一个物体的三维隐式神经表示来组装场景。
- 通过损失强制执行Eikonal方程的约束来学习SDF。
- Implicit Geometric Regularization for Learning Shapes (Gropp et al. 2020)
- 建议将周期性正弦作为激活函数利用,从而实现具有非普通高阶导数和复杂PDE的解决方案的函数的参数化。
- Implicit Neural Representations with Periodic Activation Functions (Sitzmann et al. 2020)
- 使用本地隐式代表使用辅助PDE损耗来执行超分辨率的时空流量函数
- 从3D数据
- Generative Radiance Fields for 3D-Aware Image Synthesis (Schwarz et al. 2020)
- pi-GAN: Periodic Implicit Generative Adversarial Networks for 3D-Aware Image Synthesis (Chan et al. 2020)
- Unconstrained Scene Generation with Locally Conditioned Radiance Fields (DeVries et al. 2021) Leverage a hybrid implicit-explicit representation, by generating a 2D feature grid floorplan with a classic convolutional GAN, and then conditioning a 3D neural implicit representation on these features. This enables generation of room-scale 3D scenes.
- 从2D数据
- Adversarial Generation of Continuous Images (Skorokhodov et al. 2020)
- Learning Continuous Image Representation with Local Implicit Image Function (Chen et al. 2020)
- Image Generators with Conditionally-Independent Pixel Synthesis (Anokhin et al. 2020)
- Spatially-Adaptive Pixelwise Networks for Fast Image Translation (Shaham et al. 2020) leverages a hybrid implicit-explicit representation for fast high-resolution image2image translation.
- NASA: Neural Articulated Shape Approximation (Deng et al. 2020) represents an articulated object as a composition of local, deformable implicit elements.