我目前正在开发一个应用程序,其初始目标是实时获取Kinect设备"看到"的环境的3D模型.此信息稍后将用于投影映射,但目前这不是问题.
需要克服几个挑战,即Kinect将安装在移动平台(机器人)上,并且模型生成必须是实时的(或接近它).
经过对该主题的长期研究,我想出了几种可能的(?)架构:
1)使用从Kinect获得的深度数据,将其转换为点云(使用PCL执行此步骤),然后将其转换为网格,然后将其导出到Unity中以进行进一步的工作.
2)使用从Kinect获得的深度数据,将其转换为点云(使用PCL执行此步骤),将其导出到Unity中,然后将其转换为网格.
3)使用已经可以选择创建Mesh模型的KinectFusion,并(以某种方式)自动加载创建到Unity中的Mesh模型.
4)使用OpenNI + ZDK(+包装器)获取深度图并使用Unity生成网格.
老实说,我有点迷失在这里,我的主要问题是实时要求以及被迫集成几个软件组件使这成为棘手的问题.我不知道这些解决方案中是否存在哪些解决方案是可行的,并且关于这些问题的信息/教程并不完全丰富,例如,对于Skeleton跟踪.
任何形式的帮助将不胜感激.
此致,努诺