Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

GIM训练LoFTR时的数据处理 #36

Open
puxuntu opened this issue Nov 10, 2024 · 1 comment
Open

GIM训练LoFTR时的数据处理 #36

puxuntu opened this issue Nov 10, 2024 · 1 comment

Comments

@puxuntu
Copy link

puxuntu commented Nov 10, 2024

您好!非常精彩的工作,感谢您对社区的贡献。
我想借鉴类似的思路(用视频生成匹配数据集来训练LoFTR等模型),因为GIM的训练代码还没公布,因此无法知道具体的数据集构建的一些具体细节。因为Scannet提供的数据是包含深度图、相机参数这些信息的,这些信息可以用来计算一对匹配图片的像素对应关系作为监督ground truth。但这些信息但网络视频肯定无法获取这些参数,所以我猜测你们的思路是构建自己的dataloader, 把匹配的ground truth结果直接传入给模型(具体为compute_supervision_coarse函数和compute_supervision_fine函数),而不需要按照原始的LoFTR代码里面计算一遍。
不知道我的理解是否正确,敬请指正。想了解以上逻辑的背景是因为我的任务是医疗手术视频,无法类似构造Scannet或者MegaDepth这种数据集,因此您用网络视频这种思路比较适合我这类任务。
非常感谢!

@xuelunshen
Copy link
Owner

你理解的是正确的. 确实需要为 LoFTR 的 Coarse 阶段和 Fine 阶段都提供监督信号. 这部分的细节在我适配 LoFTR 到 GIM 的训练数据时, 花了一些时间和功夫. 相比之, DKM 和 SuperGlue 的适配则简单一些. 理论上, GIM 可以从任何(未经过剪辑的)视频中提取对应关系, 所以应该可以为你的任务提供监督信号 (也许你的任务是从医疗手术视频中进行重建或者定位任务).

我这里快整理完了, 12 月(或者说今年内) 就会把剩余代码全部公布, 请你再稍微等待一下.


You are correct. Supervision signals are indeed required for both the Coarse and Fine stages of LoFTR. It took me some time and effort to adapt LoFTR to the training data of GIM. In comparison, adapting DKM and SuperGlue was simpler. In theory, GIM can extract correspondences from any (unedited) video, so it should be able to provide supervision signals for your task (perhaps your task involves reconstruction or localization from medical surgery videos).

I am almost done organizing everything, and I will release the remaining code by December (or within this year), so please wait a little longer.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants