欢迎访问学兔兔,学习、交流 分享 !

返回首页 |

视频事件的分析与理解 裴明涛,赵猛著 2019年版

收藏
  • 大小:37.15 MB
  • 语言:中文版
  • 格式: PDF文档
  • 阅读软件: Adobe Reader
资源简介
视频事件的分析与理解
作者: 裴明涛,赵猛著
出版时间: 2019年版
内容简介
  视频事件的分析与理解是计算机视觉领域的重要研究内容之一,具有重要的理论研究意义和实际应用价值。本书首先介绍了视频事件分析与理解所涉及的目标检测、目标跟踪以及事件识别的研究现状,分析了视频事件分析与理解中的关键问题,然后重点介绍了作者研究团队在视频事件分析与理解领域的研究工作和成果。本书可供计算机、自动化、模式识别等领域的科研人员参考,也可作为高等院校计算机、自动化、电子信息等专业的教学参考书。
目录
第1章 引言
1.1 视频事件分析与理解的背景和意义
1.2 目标检测的研究现状
1.2.1 基于HOG/SVM的行人检测
1.2.2 基于可变形部件模型的行人检测
1.2.3 基于深度神经网络的行人检测
1.2.4 基于特征融合的行人检测
1.2.5 行人检测中的分类器
1.2.6 行人检测数据集
1.3 目标跟踪的研究现状
1.3.1 目标表示
1.3.2 统计建模
1.3.3 目标跟踪数据集
1.4 视频事件分析与理解的研究现状
1.4.1 视频事件中的相关术语
1.4.2 视频事件的特征表示
1.4.3 视频事件的建模方法
1.4.4 视频事件数据集
1.5 关于本书
第2章 视频中的目标检测算法
2.1 基于深度通道特征的行人检测方法
2.1.1 深度卷积神经网络与稀疏滤波
2.1.2 深度通道特征
2.1.3 深度通道特征的提取
2.1.4 基于深度通道特征的行人检测
2.1.5 实验结果
2.2 基于特征共享和联合Boosting方法的物体检测方法
2.2.1 基于滑动窗口和二分类器的物体检测框架
2.2.2 二分类Boosting方法
2.2.3 共享特征与多分类Boosting方法
2.2.4 实验结果
2.3 本章小结
第3章 视频中的目标跟踪算法
3.1 基于多分量可变部件模型的行人跟踪方法
3.1.1 行人可变部件模型及其初始化
3.1.2 多分量可变部件模型
3.1.3 基于多分量可变部件模型的跟踪算法
3.1.4 自顶向下与自底向上相结合的跟踪框架
3.1.5 实验结果
3.2 基于锚点标签传播的物体跟踪方法
3.2.1 问题描述
3.2.2 求解最优H
3.2.3 求解软标签预测矩阵A
3.2.4 软标签传播
3.2.5 基于标签传播模型的跟踪算法
3.2.6 实验结果
3.3 本章小结
第4章 事件时序与或图模型的学习
4.1 事件模型的定义
4.1.1 一元和二元关系
4.1.2 原子动作
4.1.3 时序与或图模型
4.1.4 子节点之间的时序关系
4.1.5 解析图
4.2 事件模型的学习
4.2.1 一元和二元关系的检测
4.2.2 原子动作的学习
4.2.3 事件模型的学习
4.3 实验结果
4.3.1 实验数据
4.3.2 时序与或图学习结果
4.3.3 所学的模型有益于场景语义的识别
4.4 本章小结
第5章 基于时序与或图模型的视频事件解析
5.1 时序与或图与随机上下文相关文法
5.2 Earley在线解析算法
5.3 改进的Earley解析算法
5.4 事件解析的定义
5.5 对事件的解析
5.6 实验
5.6.1 原子动作识别
5.6.2 事件解析
5.6.3 意图预测
5.6.4 事件补全
5.7 本章小结
第6章 基于关键原子动作和上下文信息的事件解析
6.1 基于关键原子动作的事件解析
6.1.1 原子动作权值的学习
6.1.2 带有原子动作权值的事件解析图
6.1.3 基于原子动作权值的事件可识别度
6.1.4 实验结果
6.2 基于社会角色的事件分析
6.2.1 相关工作
6.2.2 角色建模与推断
6.2.3 基于角色的事件识别
6.2.4 实验结果
6.3 基于群体和环境上下文的事件识别
6.3.1 相关工作
6.3.2 基于场景上下文的事件识别
6.3.3 基于群体上下文的事件识别
6.3.4 基于场景和群体上下文的事件识别
6.3.5 实验结果
6.4 本章小结
参考文献
下载地址