《Kinect应用开发实战:用最自然的方式与机器对话》一导读

    xiaoxiao2021-04-18  211

    前 言

    为什么要写这本书Kinect以Natal为开发代号在CES2010一亮相就光芒四射。发布会上那段视频令我印象深刻:你可以用身体自如地进行游戏,而且无需任何控制器。也许就在那一刻,全世界的很多技术爱好者都在想:“我们还可以用Kinect干点什么呢?”我将这段视频转发给复旦大学附属中山医院的阴忆青博士。他看完后敏锐地问道:“是否可以基于Kinect开发手术室的应用?”那时Kinect还未正式发布,但这个念头着实让我兴奋不已。我们似乎已经进入了这样一个时代:计算机已逐渐拥有与人类媲美的感知能力—它们能看到、触摸到、感觉到我们所处的地点和运动状态。科幻电影银幕中的场景,正逐步出现在我们的身边,并成为生活中的一部分。Kinect正是在这样的背景中诞生的,人机交互从二维世界扩展到三维空间,而且是非接触的交互体验(Touch-Free)。Kinect也许会成为第三次人机交互革命的原点。

    目 录

    第1章 自然人机交互技术漫谈1.1 自然人机交互技术的发展1.2 “你就是控制器”—Kinect宣言第2章 揭开Kinect的神秘面纱—硬件设备解剖2.1 两款Kinect传感器对比2.2 Kinect传感器的硬件组成2.3 Kinect相关技术规格2.4 本章小结第3章 Kinect工作原理大揭秘3.1 Kinect for Xbox 360的产品设计3.2 基于“管道”的系统架构3.3 Kinect眼里的三维世界3.4 深度图像成像原理3.5 从深度图像到骨骼图3.6 创建你的Avatar3.7 本章小结第三部分 基础篇第4章 Kinect for Windows SDK导读4.1 什么是Kinect SDK4.1.1 Kinect SDK的发展历程4.1.2 SDK v1.5的新特性4.1.3 SDK v1.5尚未提供的API4.1.4 从底层进行封装4.2 Kinect for Windows体系架构4.3 应用层API详解4.3.1 Kinect的核心NUI API4.3.2 Kinect Audio DMO4.3.3 Windows Speech SDK4.4 数据流概述4.4.1 彩色图像数据4.4.2 用户分割数据4.4.3 深度图像数据4.4.4 如何获取数据流4.5 骨骼跟踪4.5.1 骨骼信息检索4.5.2 主动跟踪和被动跟踪4.5.3 骨骼跟踪对象选择4.6 NUI坐标转换4.6.1 深度图像空间坐标4.6.2 骨骼空间坐标4.6.3 坐标变换4.6.4 传感器阵列和倾斜补偿4.6.5 地面测量4.6.6 骨骼镜像4.7 本章小结

    相关资源:Kinect应用开发实战用最自然的方式与机器对话.pdf

    最新回复(0)