论文目录 | |
摘要 | 第1-6页 |
abstract | 第6-11页 |
第1章 绪论 | 第11-16页 |
1.1 课题研究的背景和意义 | 第11-12页 |
1.2 国内外研究现状 | 第12-14页 |
1.2.1 声音定位和识别研究现状 | 第12-13页 |
1.2.2 视觉跟踪研究现状 | 第13-14页 |
1.3 论文的主要研究内容与章节安排 | 第14-16页 |
第2章 声音信息和图像信息的预处理 | 第16-26页 |
2.1 声音信息和图像信息采集平台 | 第16-19页 |
2.1.1 Kinect彩色数据流 | 第18页 |
2.1.2 Kinect深度数据流 | 第18-19页 |
2.1.3 Kinect声音数据流 | 第19页 |
2.2 声音数据的预处理 | 第19-23页 |
2.2.1 预滤波处理 | 第20页 |
2.2.2 预加重处理 | 第20页 |
2.2.3 加窗分帧处理 | 第20-21页 |
2.2.4 语音活动检测 | 第21-23页 |
2.3 图像信息处理预备 | 第23-25页 |
2.3.1 图形学预处理介绍 | 第23-24页 |
2.3.2 图像滤波 | 第24-25页 |
2.4 本章小结 | 第25-26页 |
第3章 声音信息的识别与定位 | 第26-48页 |
3.1 基于二进制的声音分类器 | 第26-29页 |
3.2 时延估计的方法 | 第29-36页 |
3.2.1 时延估计的物理意义 | 第29页 |
3.2.2 广义互相关函数时延估计方法 | 第29-33页 |
3.2.3 改进的互功率谱相位加权的广义互相关时延估计法 | 第33-36页 |
3.3 基于时延的位置估计方法 | 第36-42页 |
3.3.1 声源模型的建立 | 第36-37页 |
3.3.2 原始平面四元十字阵列 | 第37-39页 |
3.3.3 平面四元十字阵列的改进方法 | 第39-42页 |
3.4 阵列定位误差分析 | 第42-47页 |
3.4.1 远场模型 | 第42-43页 |
3.4.2 时延误差 | 第43-45页 |
3.4.3 拾音器位置 | 第45-46页 |
3.4.4 声速误差 | 第46-47页 |
3.5 本章小结 | 第47-48页 |
第4章 基于融合Kalman滤波的Mean Shift图像信息的目标跟踪方法 | 第48-63页 |
4.1 Kalman滤波器理论 | 第48-51页 |
4.1.1 Kalman滤波状态空间描述 | 第48-49页 |
4.1.2 线性离散系统Kalman滤波方程 | 第49-51页 |
4.2 Mean Shift目标跟踪算法 | 第51-57页 |
4.2.1 Mean Shift理论 | 第51-54页 |
4.2.2 Mean Shift跟踪算法原理 | 第54-56页 |
4.2.3 Mean Shift跟踪算法实现步骤 | 第56-57页 |
4.3 融合Kalman滤波Mean Shift跟踪算法 | 第57-62页 |
4.3.1 基于Kalman滤波的运动目标建模 | 第57-58页 |
4.3.2 目标高速运动情况下的跟踪 | 第58-60页 |
4.3.3 目标严重遮挡情况下的跟踪 | 第60-62页 |
4.4 本章小结 | 第62-63页 |
第5章 声音信息辅助的融合Kalman滤波的Mean Shift三维图像目标跟踪算法 | 第63-70页 |
5.1 目标声音信息提取 | 第63-65页 |
5.2 融合声音信息和图像信息算法流程 | 第65-66页 |
5.3 目标高速运动情况下的跟踪改进 | 第66-67页 |
5.4 目标严重遮挡情况下的跟踪改进 | 第67-69页 |
5.5 本章小结 | 第69-70页 |
第6章 系统的设计与实践 | 第70-81页 |
6.1 基于机器视觉、机器听觉信息融合的普适目标跟踪系统的设计 | 第70-74页 |
6.1.1 移动机器人实验平台 | 第70-71页 |
6.1.2 声音系统定位平台设计与实现 | 第71-72页 |
6.1.3 图像视觉跟踪平台设计与实现 | 第72-74页 |
6.2 新型普适目标跟踪系统的系统测试 | 第74-78页 |
6.2.1 声音定位算法实验结果和实验分析 | 第74-75页 |
6.2.2 融合Kalman滤波的Mean Shift算法实验结果和实验分析 | 第75-78页 |
6.3 声音信息辅助融合Kalman滤波的Mean Shift算法 | 第78-80页 |
6.4 本章小结 | 第80-81页 |
结论 | 第81-82页 |
参考文献 | 第82-85页 |
攻读硕士学位期间发表的论文和取得的科研成果 | 第85-86页 |
致谢 | 第86页 |