文件大小:184.1 MB
版本:1.6.3
原始 Unity 版本:2023.2.0
此资源不使用深度传感器,而是使用普通的网络摄像头或视频录制作为输入,并使用 AI 模型提供深度估计、身体追踪、物体追踪和其他数据流。该资源包包含 30 多个演示场景。
CVE v1.6 将保留为 Asset Store 中的 Lite 演示版本。CVE v1.7(及更高版本)现已升级为专业版,仅向持有商业许可或协议的特定合作伙伴开放。
头像演示场景展示了如何在场景中使用用户控制的头像、手势演示 – 如何在项目中使用离散和连续手势、试衣间演示 – 如何将用户的身体与虚拟模型叠加或混合、背景去除演示 – 如何在虚拟背景上显示用户轮廓等。所有演示场景的简短描述均可在在线文档中找到。
此软件包适用于普通网络摄像头和可使用 Unity 视频播放器播放的视频片段。它适用于 Unity 的所有版本 – 免费版、增强版和专业版。
如何运行演示场景:
1.创建一个新的 Unity 项目(Unity 2023.2 或更高版本,根据 Unity 的 Sentis 包的要求)。
2. 在 Unity 编辑器中打开“包管理器”窗口,点击“+”按钮,从菜单中选择“按名称安装包”,并输入“com.unity.sentis”。然后按 Enter 键或“安装”按钮。这将安装用于 AI 模型推理的 Unity 包“Sentis”。
3.将此包导入到Unity项目中。
4. 打开“文件/构建设置”并切换到“PC、Mac 和 Linux 独立”。
5. 检查“播放器设置/其他设置/渲染”中“Windows 自动图形 API”列表设置中的第一个选项是否为“Direct3D11”。
6. 请首先打开并运行“ComputerVisionExamples/DemoScenes”文件夹子文件夹中包含人体追踪的演示场景(例如 AvatarDemo1 场景或 OverlayDemo2 场景)。请站在摄像头前进行校准。此操作只需进行一次,用于估算摄像头的固有参数。
7. 从“ComputerVisionExamples/DemoScenes”文件夹的子文件夹中打开并运行您选择的演示场景。所有演示场景的简短描述均可在在线文档中找到。
目前的局限性:
1. 由于该漏洞会严重占用 GPU 内存,请暂时避免在移动平台上使用该 CVE 漏洞包。否则,性能可能会下降,设备也可能会过热。
2. CVE 软件包应该在 WebGL 平台上构建和运行,但由于性能预期较低,因此不建议这样做。请尽可能使用 WebGPU 图形 API(使用最新的 Unity 6 版本)。
一个请求:
未经我的明确同意,请不要以源代码形式与他人共享此包或其演示场景,或将其作为公共存储库的一部分共享。
故障排除:
* 请注意,CVE 补丁包才刚刚开始。不要期望一切都完美无缺。如果您遇到任何问题或错误,请联系我报告问题。然后请耐心等待,直到问题得到解决。
* 如果您在控制台中收到错误,例如“Texture2D”不包含“LoadImage”的定义或“Texture2D”不包含“EncodeToJPG”的定义,请打开包管理器,选择“内置包”并确保“图像转换”和“Physics 2D”包已启用。
1、本站资源大多来自网友发稿,如有侵犯你的权益请联系管理员,我们会第一时间进行审核删除。仅用于个人学习或测试研究使用,Email:730033856@qq.com
2、有很多小伙伴经常问插件无法安装,有很大一部分用英文原版就可以解决问题。以便于在未来的学习和工作可以更高效的吸收英文资源,提高大家的学习效率和学习效果。
3、交流反馈插件素材更多问题~可以联系加QQ群:819091096
解压密码点击查看







