<aside> 1️⃣
rgb重建效果差→没用tiling?

✅阅读msplat渲染后端中关于tiling的代码,发现从头实现这部分确实非常困难,因此转为在Pointrix现有管线中修改代码。
</aside>
<aside> 2️⃣
颜色灰→没用球谐表示颜色?

✅改用标准管线后,内含球谐处理流程,不用额外修改。
</aside>
<aside> 3️⃣
用于比较的baseline本身效果太差,无法指示工作的正确性

✅改用moge2作为depth和normal的baseline.
✅换用小规模数据集,避免下采样降低效果。
</aside>
<aside> 🖼️
示例图片


</aside>
<aside> 🖼️
示例图片
深度图

法线图

光流图

</aside>
特征提取方面,我在 msplat.py 的 render_iter() 方法中,添加了法线和光流特征提取的代码,具体方法如下
alpha-blending 时,为了适配 moge 特殊的深度可视化方案,把深度特征的背景值设置为当前深度图的最大深度值。
<aside> 🎨
moge 的深度可视化方案
disp = 1 / depth # 深度转视差
color = colormap(1.0 - disp_normalized) # 反转映射
3个特殊之处:
1/depth 转换,然后把视差线性映射到色盘1.0 - disp 实现近暖远冷quantile(0.001, 0.99) 裁剪异常值适配理由:
0 会导致 1/0=NaN;设为 1000 会压缩颜色范围[1, 10, 100(bg)] → 视差 [1.0, 0.1, 0.01] → 颜色均匀分布</aside>
关键改进:魔搭上nerf_llff数据集质量太差,用 gaussian-splatting 库中的 convert.py 重新做一遍 SfM 以生成点云、估计相机位姿,效果比之前好太多。估计是 3dgs 的 SfM 方法比 colmap 好一些。
<aside> 🆚
convert 前后 rgb 重建效果对比
convert 前

convert 后

gt

</aside>
<aside> 🖼️
效果展示
rgb

rgb_gt

depth

depth_gt

某些位置深度、法线和光流信息都缺失(为背景颜色),翻看数据图片,发现这些地方正是拍摄不到的纯黑色的区域,应该是convert.py没有给这些地方分配点云。
</aside>
这一部分相对上一次汇报,代码上没做什么改动,我将直接开始展示监督效果。
<aside> 🖼️
</aside>
<aside> 🖼️
</aside>