譯者序 \n
序 \n
前言 \n
關于本書 \n
致謝 \n
第一部分 機器學習基礎 \n
第1章 開啟機器學習之旅2 \n
1.1 機器學習的基本原理3 \n
1.1.1 參數5 \n
1.1.2 學習和推理6 \n
1.2 數據表示和特征7 \n
1.3 度量距離13 \n
1.4 機器學習的類型15 \n
1.4.1 監(jiān)督學習15 \n
1.4.2 無監(jiān)督學習16 \n
1.4.3 強化學習17 \n
1.4.4 元學習17 \n
1.5 TensorFlow19 \n
1.6 后續(xù)各章概述21 \n
小結22 \n
第2章 TensorFlow必備知識23 \n
2.1 確保TensorFlow工作正常24 \n
2.2 表示張量25 \n
2.3 創(chuàng)建運算29 \n
2.4 在會話中執(zhí)行運算30 \n
2.5 將代碼理解為圖32 \n
2.6 在Jupyter中編寫代碼34 \n
2.7 使用變量37 \n
2.8 保存和加載變量38 \n
2.9 使用TensorBoard可視化數據40 \n
2.9.1 實現(xiàn)移動平均40 \n
2.9.2 可視化移動平均42 \n
2.10 把所有綜合到一起:TensorFlow系統(tǒng)架構和API44 \n
小結45 \n
第二部分 核心學習算法 \n
第3章 線性回歸及其他48 \n
3.1 形式化表示48 \n
3.2 線性回歸52 \n
3.3 多項式模型55 \n
3.4 正則化58 \n
3.5 線性回歸的應用62 \n
小結63 \n
第4章 使用回歸進行呼叫量預測64 \n
4.1 什么是31166 \n
4.2 為回歸清洗數據67 \n
4.3 什么是鐘形曲線?預測高斯分布71 \n
4.4 訓練呼叫回歸預測器72 \n
4.5 可視化結果并繪制誤差74 \n
4.6 正則化和訓練測試集拆分76 \n
小結78 \n
第5章 分類問題基礎介紹79 \n
5.1 形式化表示80 \n
5.2 衡量性能82 \n
5.2.1 準確率82 \n
5.2.2 精度和召回率82 \n
5.2.3 受試者操作特征曲線84 \n
5.3 使用線性回歸進行分類85 \n
5.4 使用邏輯回歸89 \n
5.4.1 解決1維邏輯回歸90 \n
5.4.2 解決2維邏輯回歸93 \n
5.5 多分類器96 \n
5.5.1 一對所有96 \n
5.5.2 一對一97 \n
5.5.3 softmax回歸97 \n
5.6 分類的應用101 \n
小結101 \n
第6章 情感分類:大型影評數據集103 \n
6.1 使用詞袋模型104 \n
6.1.1 在影評中應用詞袋模型105 \n
6.1.2 清洗所有的電影評論107 \n
6.1.3 在詞袋模型上進行探索性數據分析108 \n
6.2 使用邏輯回歸構建情感分類器109 \n
6.2.1 模型訓練的創(chuàng)建110 \n
6.2.2 訓練創(chuàng)建的模型111 \n
6.3 使用情感分類器進行預測112 \n
6.4 測量分類器的有效性115 \n
6.5 創(chuàng)建softmax回歸情感分類器119 \n
6.6 向Kaggle提交結果125 \n
小結127 \n
第7章 自動聚類數據128 \n
7.1 使用TensorFlow遍歷文件129 \n
7.2 音頻特征提取130 \n
7.3 使用k-means聚類135 \n
7.4 分割音頻138 \n
7.5 使用自組織映射進行聚類140 \n
7.6 應用聚類144 \n
小結145 \n
第8章 從Android的加速度計數據推斷用戶活動146 \n
8.1 Walking數據集中的用戶活動數據147 \n
8.1.1 創(chuàng)建數據集149 \n
8.1.2 計算急動度并提取特征向量150 \n
8.2 基于急動度大小聚類相似參與者153 \n
8.3 單個參與者的不同類別活動155 \n
小結157 \n
第9章 隱馬爾可夫模型158 \n
9.1 一個不可解釋模型的例子159 \n
9.2 馬爾可夫模型159 \n
9.3 隱馬爾可夫模型簡介161 \n
9.4 前向算法162 \n
9.5 維特比解碼165 \n
9.6 使用HMM166 \n
9.6.1 對視頻建模166 \n
9.6.2 對DNA建模166 \n
9.6.3 對圖像建模167 \n
9.7 HMM的應用167 \n
小結167 \n
第10章 詞性標注和詞義消歧168 \n
10.1 HMM示例回顧:雨天或晴天170 \n
10.2 詞性標注173 \n
10.2.1 重點:使用HMM訓練和預測詞性176 \n
10.2.2 生成帶歧義的詞性標注數據集179 \n
10.3 構建基于HMM的詞性消歧算法181 \n
10.4 運行HMM并評估其輸出188 \n
10.5 從布朗語料庫獲得更多的訓練數據190 \n
10.6 為詞性標注定義評估指標196 \n
小結198 \n
第三部分 神經網絡范式 \n
第11章 自編碼器200 \n
11.1 神經網絡簡介201 \n
11.2 自編碼器簡介203 \n
11.3 批量訓練207 \n
11.4 處理圖像207 \n
11.5 自編碼器的應用211 \n
小結212 \n
第12章 應用自編碼器:CIFAR-10圖像數據集213 \n
12.1 什么是CIFAR-10214 \n
12.2 自編碼器作為分類器218 \n
12.3 去噪自編碼器223 \n
12.4 堆棧自編碼器226 \n
小結229 \n
第13章 強化學習230 \n
13.1 相關概念231 \n
13.1.1 策略232 \n
13.1.2 效用233 \n
13.2 應用強化學習233 \n
13.3 實現(xiàn)強化學習235 \n
13.4 探索強化學習的其他應用242 \n
小結243 \n
第14章 卷積神經網絡244 \n
14.1 神經網絡的缺點245 \n
14.2 卷積神經網絡簡介245 \n
14.3 準備圖像246 \n
14.3.1 生成過濾器249 \n
14.3.2 使用過濾器進行卷積251 \n
14.3.3 最大池化253 \n
14.4 在TensorFlow中實現(xiàn)CNN254 \n
14.4.1 測量性能257 \n
14.4.2 訓練分類器258 \n
14.5 提高性能的提示和技巧258 \n
14.6 CNN的應用259 \n
小結259 \n
第15章 構建現(xiàn)實世界中的CNN:VGG-Face和VGG-Face Lite260 \n
15.1 為CIFAR-10構建一個現(xiàn)實世界的CNN架構262 \n
15.1.1 加載和準備C