第 1章 緒論 001
1.1 動作分析的基本概念 002
1.1.1 特征提取 004
1.1.2 估計器 005
1.1.3 分類器 005
1.1.4 區(qū)域搜索 005
1.2 動作分析的發(fā)展歷程 006
1.3 動作分析的應用 015
參考文獻 017
第 2章 動作分析基礎知識 027
2.1 局部特征點 028
2.1.1 特征點檢測 028
2.1.2 特征點跟蹤 030
2.1.3 特征描述子 031
2.1.4 詞袋模型 033
2.2 運動檢測 034
2.2.1 幀間差分 035
2.2.2 背景減除 036
2.2.3 光流場 038
2.3 成分分析與判別函數 040
2.3.1 主成分分析 040
2.3.2 線性判別分析 042
2.3.3 多重判別分析 043
2.4 最大似然估計 043
2.4.1 基本原理 044
2.4.2 多元正態(tài)分布下的參數估計 045
2.5 最近鄰分類 046
2.5.1 基本原理 046
2.5.2 距離度量函數 046
2.5.3 近鄰個數 047
2.5.4 分類規(guī)則 047
2.6 支持向量機 047
2.6.1 最優(yōu)分類平面 047
2.6.2 線性不可分情況 050
2.6.3 非線性支持向量機 050
2.7 隱馬爾可夫模型 052
2.7.1 隱馬爾可夫模型的定義 052
2.7.2 隱馬爾可夫模型的基本假設 053
2.7.3 隱馬爾可夫模型的基本問題 053
2.8 神經網絡 054
2.8.1 神經元模型 054
2.8.2 神經網絡模型 055
2.8.3 反向傳播算法 056
2.9 聚類 058
2.9.1 基本原理 058
2.9.2 K means聚類 058
2.9.3 層次聚類 059
參考文獻 060
第3章 動作分析經典方法 065
3.1 動作表示 066
3.1.1 時空特征 066
3.1.2 語義特征 071
3.1.3 深度特征 071
3.2 姿態(tài)估計 077
3.2.1 自底向上基于表觀的估計方法 078
3.2.2 自頂向下基于模型的估計方法 080
3.2.3 自底向上和自頂向下相結合的估計方法 083
3.3 動作識別 084
3.3.1 單層動作識別方法 084
3.3.2 層級動作識別方法 086
3.4 動作定位 089
3.4.1 時域動作定位 089
3.4.2 時空動作定位 091
3.5 常用數據庫 092
參考文獻 108
第4章 學習非線性流形空間的人體姿態(tài)估計 133
4.1 引言 134
4.2 流形學習方法 135
4.3 人體運動的非線性流形空間 136
4.4 流形空間到原始姿態(tài)空間映射 138
4.4.1 映射函數建模 139
4.4.2 流形空間概率分布建模 139
4.4.3 映射函數參數學習 140
4.5 實驗 140
4.5.1 三維人手姿態(tài)估計 141
4.5.2 三維人體姿態(tài)估計 144
4.6 小結 147
參考文獻 147
第5章 利用語義知識反饋的人體姿態(tài)估計 149
5.1 引言 150
5.2 姿態(tài)估計多義性 151
5.3 語義知識建模 152
5.3.1 局部語義知識 152
5.3.2 全局語義知識 154
5.4 語義知識反饋 156
5.4.1 局部語義知識反饋 156
5.4.2 全局語義知識反饋 156
5.5 語義知識反饋用于姿態(tài)估計 157
5.5.1 基于Hausdorff距離的動作識別 159
5.5.2 基于局部語義反饋和全局語義反饋的姿態(tài)估計 160
5.6 實驗 161
5.6.1 實驗數據 161
5.6.2 結果分析與比較 162
5.7 小結 165
參考文獻 165
第6章 采用增量判別相關分析的動作識別 167
6.1 引言 168
6.2 判別典型相關分析 169
6.3 增量判別典型相關分析 170
6.3.1 更新總典型相關矩陣 171
6.3.2 更新類間典型相關矩陣 172
6.3.3 更新判別矩陣 172
6.4 半監(jiān)督增量判別典型相關分析 173
6.5 實驗 174
6.5.1 Weizmann數據庫實驗 174
6.5.2 KTH數據庫實驗 177
6.5.3 魯棒性驗證 180
6.6 小結 182
參考文獻 182
第7章 融合多視覺對象的動作識別 185
7.1 引言 186
7.2 動作上下文信息 187
7.3 視覺對象特征表示 188
7.3.1 時空興趣點特征 188
7.3.2 類相關語義特征 193
7.4 視覺對象關聯(lián)建模 194
7.4.1 含有隱變量的結構支持向量機 195
7.4.2 關聯(lián)模型構建 196
7.4.3 關聯(lián)模型訓練 198
7.4.4 關聯(lián)模型預測 199
7.5 實驗 199
7.5.1 實驗數據 199
7.5.2 實驗結果及分析 200
7.6 小結 206
參考文獻 206
第8章 聯(lián)合原子動作建模的動作識別 211
8.1 引言 212
8.2 原子動作 213
8.3 聯(lián)合原子動作建模 215
8.3.1 聯(lián)合模型構建 215
8.3.2 聯(lián)合模型訓練 217
8.3.3 聯(lián)合模型預測 219
8.4 原子動作自動標注 219
8.5 實驗 222
8.5.1 實驗數據 222
8.5.2 動作識別結果分析 223
8.5.3 半監(jiān)督學習方法評估 226
8.5.4 視頻描述結果分析 227
8.6 小結 230
參考文獻 231
第9章 跨域知識遷移的動作識別與時空定位 235
9.1 引言 236
9.2 弱監(jiān)督時空動作定位 237
9.3 圖像到視頻特征遷移 238
9.3.1 圖像和視頻特征表示 238
9.3.2 圖像到視頻特征變換 240
9.4 時空子區(qū)域候選集合 241
9.4.1 提取興趣圖像塊 242
9.4.2 篩選興趣圖像塊 243
9.4.3 生成時空子區(qū)域候選集合 244
9.5 含有隱變量的遷移支持向量機 246
9.5.1 模型構建 246
9.5.2 模型學習 247
9.5.3 模型預測 249
9.6 實驗 249
9.6.1 實驗數據 249
9.6.2 實驗結果與分析 251
9.7 小結 255
參考文獻 256
第 10章 結構化學習下的視角無關動作識別 261
10.1 引言 262
10.2 視角無關動作識別 263
10.3 含有隱變量的核化結構支持向量機 264
10.3.1 模型構建 264
10.3.2 模型學習 265
10.3.3 模型預測 266
10.4 融合多層特征核函數 267
10.4.1 底層視覺特征核函數 267
10.4.2 中層相關特征核函數 268
10.4.3 高層類別標簽核函數 269
10.5 實驗 269
10.5.1 實驗數據 269
10.5.2 實驗設計 269
10.5.3 實驗結果與分析 271
10.6 小結 275
參考文獻 275
第 11章 異構判別分析下的跨視角動作識別 279
11.1 引言 280
11.2 跨視角動作識別 281
11.3 異構線性判別分析 283
11.3.1 總散度矩陣 284
11.3.2 類間散度矩陣 285
11.3.3 分布差異約束 286
11.3.4 局部保持約束 286
11.3.5 優(yōu)化求解 287
11.4 異構非線性核判別分析 288
11.4.1 總散度矩陣 289
11.4.2 類間散度矩陣 289
11.4.3 分布差異約束 290
11.4.4 局部保持約束 290
11.4.5 優(yōu)化求解 290
11.5 實驗 290
11.5.1 實驗數據 291
11.5.2 實驗設計 291
11.5.3 實驗結果與分析 293
11.6 小結 299
參考文獻 300