We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
您好!
首先感谢您分享这个优秀的项目。我对您对COLMAP的使用有一些疑问。我有以下几个问题:
在您的方法中,您使用COLMAP对reference images进行三维重建,从而得到了每个图片的相机位姿和场景的稀疏点云。对于custom object的预测时,需要通过裁剪点云来专注于场景中的特定物体。那么,裁剪后的物体点云是如何用于估计物体相对于拍摄图像的相机的位姿?是否需要额外的转换矩阵或步骤来从相机位姿转换为物体位姿?我阅读代码时,发现点云只用于确认物体的bbox的x轴和z轴方向以及物体的大小。 最后,我想确认我的理解是否正确:在您的方法中,裁剪后的点云直接用于估计物体位姿,而无需额外的位姿变换步骤,因为世界坐标系已经被定义为等同于物体坐标系。这样理解是否准确?
期待您的回复!
The text was updated successfully, but these errors were encountered:
No branches or pull requests
您好!
首先感谢您分享这个优秀的项目。我对您对COLMAP的使用有一些疑问。我有以下几个问题:
在您的方法中,您使用COLMAP对reference images进行三维重建,从而得到了每个图片的相机位姿和场景的稀疏点云。对于custom object的预测时,需要通过裁剪点云来专注于场景中的特定物体。那么,裁剪后的物体点云是如何用于估计物体相对于拍摄图像的相机的位姿?是否需要额外的转换矩阵或步骤来从相机位姿转换为物体位姿?我阅读代码时,发现点云只用于确认物体的bbox的x轴和z轴方向以及物体的大小。
最后,我想确认我的理解是否正确:在您的方法中,裁剪后的点云直接用于估计物体位姿,而无需额外的位姿变换步骤,因为世界坐标系已经被定义为等同于物体坐标系。这样理解是否准确?
期待您的回复!
The text was updated successfully, but these errors were encountered: