注冊 | 登錄讀書好,好讀書,讀好書!
讀書網-DuShu.com
當前位置: 首頁出版圖書科學技術計算機/網絡人工智能深度學習快速實踐:基于TensorFlow和Keras的深度神經網絡優(yōu)化與訓練

深度學習快速實踐:基于TensorFlow和Keras的深度神經網絡優(yōu)化與訓練

深度學習快速實踐:基于TensorFlow和Keras的深度神經網絡優(yōu)化與訓練

定 價:¥69.00

作 者: [美] 邁克·貝尼科(Mike Bernico) 著,王衛(wèi)兵,田皓元,徐倩 譯
出版社: 機械工業(yè)出版社
叢編項: 深度學習系列
標 簽: 暫缺

購買這本書可以去


ISBN: 9787111646273 出版時間: 2020-04-01 包裝: 平裝
開本: 16開 頁數(shù): 字數(shù):  

內容簡介

  《深度學習快速實踐:——基于TensorFlow和Keras的深度神經網絡優(yōu)化與訓練》內容包括神經網絡的基礎、深度神經網絡的優(yōu)化和驗證、深度神經網絡開發(fā)和訓練環(huán)境的構建、使用Tensor-Board 進行網絡訓練的監(jiān)控和模的超參數(shù)優(yōu)化。本書詳細介紹的深度學習問題,包括基本的回歸問題、二元分類問題和多元分類問題,還包括較為復雜的卷積神經網絡對圖像的分類和使用預訓練CNN 進行的遷移學習;使用遞歸神經網絡進行時間序列預測、自然語言分類,以及通過sequence-to-sequence 模型進行機器翻譯;深度強化學習的智能體構建,以及生成對抗網絡的圖像生成。

作者簡介

暫缺《深度學習快速實踐:基于TensorFlow和Keras的深度神經網絡優(yōu)化與訓練》作者簡介

圖書目錄

目 錄
譯者序
原書序
原書前言
第1 章 深度學習的構建模塊 // 1
1.1 深度神經網絡的架構 // 1
1.1.1 神經元 // 1
1.1.2  深度學習中的代價函數(shù)和成本函數(shù) // 4
1.1.3 前向傳播過程 // 5
1.1.4 反向傳播函數(shù) // 5
1.1.5 隨機和小批量梯度下降 // 6
1.2 深度學習的優(yōu)化算法 // 6
1.2.1 采用具有動量的梯度下降 // 6
1.2.2 RMSProp 算法 // 7
1.2.3 Adam 優(yōu)化器 // 7
1.3 深度學習平臺架構 // 7
1.3.1 什么是TensorFlow ? // 7
1.3.2 什么是Keras ? // 8
1.3.3 TensorFlow 的熱門替代品 // 8
1.3.4  TensorFlow 和Keras 對GPU的要求 // 8
1.3.5  安裝Nvidia CUDA Toolkit 和cuDNN // 9
1.3.6 安裝Python // 10
1.3.7 安裝TensorFlow 和Keras // 11
1.4 深度學習數(shù)據集的構建 // 12
1.4.1  深度學習中的偏差和方差誤差 // 13
1.4.2 train、val 和test 數(shù)據集 // 13
1.4.3  深度神經網絡中的偏差和方差管理 // 14
1.4.4 K-Fold 交叉驗證 // 14
1.5 小結 // 15
第2 章  用深度學習解決回歸問題 // 16
2.1 回歸分析和深度神經網絡 // 16
2.1.1  使用神經網絡進行回歸的好處 // 16
2.1.2  使用神經網絡進行回歸時需要注意的問題 // 17
2.2 使用深度神經網絡進行回歸 // 17
2.2.1 如何規(guī)劃機器學習問題 // 17
2.2.2 定義示例問題 // 17
2.2.3 加載數(shù)據集 // 18
2.2.4 定義成本函數(shù) // 19
2.3 在Keras 中建立MLP // 19
2.3.1 輸入層的構形 // 20
2.3.2 隱藏層的構形 // 20
2.3.3 輸出層的構形 // 20
2.3.4 神經網絡的架構 // 20
2.3.5 訓練Keras 模型 // 21
2.3.6 評測模型的性能 // 22
2.4 在Keras 中建立深度神經網絡 // 22
2.4.1 評測深度神經網絡的性能 // 24
2.4.2 模型超參數(shù)的調優(yōu) // 25
2.5  保存并加載經過訓練的Keras模型 // 25
2.6 小結 // 25
第3 章  用TensorBoard 監(jiān)控網絡訓練 // 27
3.1 TensorBoard 的概述 // 27
3.2 設置TensorBoard // 27
3.2.1 安裝TensorBoard // 28
3.2.2  TensorBoard 如何與Keras /TensorFlow 會話 // 28
3.2.3 運行TensorBoard // 28
3.3 將Keras 連接到TensorBoard // 29
3.3.1 Keras 回調簡介 // 29
3.3.2 創(chuàng)建TensorBoard 回調函數(shù) // 29
3.4 使用TensorBoard // 31
3.4.1 網絡訓練的可視化 // 31
3.4.2 網絡結構的可視化 // 32
3.4.3 網絡破碎的可視化 // 32
3.5 小結 // 33
第4 章  用深度學習解決二元分類問題 // 34
4.1 二元分類和深度神經網絡 // 34
4.1.1 深度神經網絡的優(yōu)點 // 34
4.1.2 深度神經網絡的缺點 // 35
4.2 案例研究—癲癇發(fā)作識別 // 35
4.2.1 定義數(shù)據集 // 35
4.2.2 加載數(shù)據 // 35
4.2.3 模型的輸入和輸出 // 36
4.2.4 成本函數(shù) // 36
4.2.5 性能評估所采用的度量指標 // 37
4.3 在Keras 中構建二元分類器 // 37
4.3.1 輸入層 // 38
4.3.2 隱藏層 // 38
4.3.3 輸出層 // 39
4.3.4 網絡層的合并 // 39
4.3.5 訓練模型 // 40
4.4 使用Keras 中的檢查點回調函數(shù) // 40
4.5  在自定義回調函數(shù)中測量ROC AUC // 41
4.6 精度、召回率和f1 積分的測量 // 42
4.7 小結 // 43
第5 章  用Keras 解決多元分類問題 //44
5.1 多元分類和深度神經網絡 // 44
5.1.1 優(yōu)勢 // 44
5.1.2 缺點 // 45
5.2 案例研究—手寫數(shù)字的分類 // 45
5.2.1 問題定義 // 45
5.2.2 模型的輸入和輸出 // 45
5.2.3 成本函數(shù) // 46
5.2.4 度量 // 46
5.3 在Keras 中構建多元分類器 // 47
5.3.1 加載MNIST // 47
5.3.2 輸入層 // 47
5.3.3 隱藏層 // 47
5.3.4 輸出層 // 48
5.3.5 網絡的總體結構 // 49
5.3.6 訓練 // 49
5.3.7  多類模型中scikit-learn 度量指標的應用 // 50
5.4 通過Dropout 進行方差控制 // 51
5.5 采用正則化進行方差控制 // 54
5.6 小結 // 55
第6 章 超參數(shù)的優(yōu)化 // 56
6.1  網絡體系結構應該被視為超參數(shù)嗎? // 56
6.1.1 站在巨人的肩膀上 // 56
6.1.2  添加至過度擬合,然后進行正則化 // 57
6.1.3 實用建議 // 57
6.2 應該優(yōu)化哪些超參數(shù)? // 57
6.3 超參數(shù)優(yōu)化策略 // 58
6.3.1 常用的策略 // 58
6.3.2 通過scikit-learn 使用隨機搜索 // 59
6.3.3 Hyperband // 60
6.4 小結 // 62
第7 章 從頭開始訓練CNN // 63
7.1 卷積的引入 // 63
7.1.1 卷積層的工作原理 // 64
7.1.2 卷積層的好處 // 65
7.1.3 匯集層 // 66
7.1.4 批量正則化 // 67
7.2 在Keras 中訓練卷積神經網絡 // 67
7.2.1 輸入 // 67
7.2.2 輸出 // 67
7.2.3 成本函數(shù)和度量指標 // 67
7.2.4 卷積層 // 68
7.2.5 全相連層 // 68
7.2.6 Keras 中的多GPU 模型 // 69
7.2.7 訓練 // 69
7.3 使用數(shù)據擴增 // 70
7.3.1  Keras 中的圖像數(shù)據擴增器(ImageDataGenerator 類) // 71
7.3.2 具有數(shù)據擴增的訓練 // 72
7.4 小結 // 72
第8 章  使用預訓練CNN 進行
遷移學習 // 73
8.1 遷移學習概述 // 73
8.2 何時使用遷移學習 // 74
8.2.1 有限的數(shù)據 // 74
8.2.2 公共問題域 // 74
8.3 源/ 目標量和相似度的影響 // 75
8.3.1 更多的數(shù)據總是有益的 // 75
8.3.2 源/ 目標域的相似度 // 75
8.4 在Keras 中進行遷移學習 // 75
8.4.1 目標域概述 // 76
8.4.2 源域概述 // 76
8.4.3 源網絡體系結構 // 76
8.4.4 網絡體系結構的遷移 // 77
8.4.5 數(shù)據準備 // 77
8.4.6 數(shù)據輸入 // 78
8.4.7 訓練(特征提取) // 78
8.4.8 訓練(調優(yōu)) // 80
8.5 小結 // 81
第9 章 從頭開始訓練RNN // 82
9.1 遞歸神經網絡概述 // 82
9.1.1 如何讓神經元進行遞歸? // 83
9.1.2 長短時間記憶網絡 // 84
9.1.3 在時間上的反向傳播 // 86
9.2 重溫時間序列問題 // 86
9.2.1 存量和流量 // 87
9.2.2 ARIMA 和ARIMAX 預測 // 87
9.3  使用LSTM 網絡進行時間序列預測 // 88
9.3.1 數(shù)據準備 // 89
9.3.2 網絡輸出 // 92
9.3.3 網絡體系結構 // 93
9.3.4  stateful 與stateless LSTM網絡 // 93
9.3.5 訓練 // 93
9.3.6 測量性能 // 94
9.4 小結 // 96
第10 章  從頭開始訓練具有單詞嵌入的LSTM 網絡 // 97
10.1 自然語言處理簡介 // 97
10.1.1 語義分析 // 98
10.1.2 文檔分類 // 98
10.2 文本的矢量化 // 99
10.2.1 NLP 術語 // 99
10.2.2 Bag of Word 模型 // 99
10.2.3  詞干化、詞形歸并和停止詞 // 100
10.2.4 計數(shù)和TF-IDF 矢量化 // 100
10.3 單詞嵌入 // 101
10.3.1 一個簡單的例子 // 102
10.3.2  通過預測進行的單詞嵌入學習 // 102
10.3.3  通過計數(shù)進行的單詞嵌入學習 // 104
10.3.4 從單詞到文檔 // 104
10.4 Keras 嵌入層 // 105
10.5  用于自然語言處理的1D CNN // 105
10.6 文檔分類的案例研究 // 106
10.6.1  使用Keras 嵌入層和LSTM網絡進行情感分析 // 106
10.6.2  使用和不使用GloVe 的文檔分類 // 110
10.7 小結 // 117
第11 章  訓練sequence-tosequence模型 // 118
11.1 sequence-to-sequence 模型 // 118
11.1.1  sequence-to-sequence 模型的應用 // 118
11.1.2  sequence-to-sequence 模型的體系結構 // 119
11.1.3 字符與單詞 // 120
11.1.4 Teacher forcing // 120
11.1.5 Attention // 121
11.1.6 翻譯的度量 // 121
11.2 機器翻譯 // 121
11.2.1 了解數(shù)據集 // 122
11.2.2 加載數(shù)據 // 122
11.2.3 one hot 編碼 // 124
11.2.4 訓練網絡體系結構 // 125
11.2.5 網絡體系結構(用于推理) // 126
11.2.6 體系結構的合并 // 127
11.2.7 訓練 // 128
11.2.8 推理 // 129
11.3 小結 // 133
第12 章 使用深度強化學習 // 134
12.1 強化學習概述 // 134
12.1.1 Markov 決策過程 // 135
12.1.2 Q-learning // 136
12.1.3 無限的狀態(tài)空間 // 136
12.1.4 Deep Q 網絡 // 137
12.1.5 守成與探索 // 138
12.1.6 DeepMind // 138
12.2 Keras 的強化學習平臺架構 // 139
12.2.1 安裝Keras-RL // 139
12.2.2 安裝OpenAI gym // 139
12.2.3 使用OpenAI gym // 139
12.3  在Keras 中構建一個強化學習智能體 // 140
12.3.1 CartPole // 140
12.3.2 月球著陸器 // 143
12.4 小結 // 145
第13 章 生成對抗網絡 // 146
13.1 GAN 的概述 // 146
13.2 深度卷積GAN 的體系結構 // 147
13.2.1 對抗訓練體系結構 // 147
13.2.2 生成器的體系結構 // 148
13.2.3 鑒別器的體系結構 // 149
13.2.4 堆訓練 // 149
13.3 GAN 如何失效 // 151
13.3.1 穩(wěn)定性 // 151
13.3.2 模式塌縮 // 151
13.4 GAN 的安全選擇 // 151
13.5  使用Keras GAN 進行的MNIST圖像生成 // 152
13.5.1 加載數(shù)據集 // 152
13.5.2 構建生成器 // 153
13.5.3 構建鑒別器 // 153
13.5.4 堆疊模型的構建 // 154
13.5.5 訓練循環(huán) // 155
13.5.6 模型評估 // 157
13.6  使用Keras GAN 進行CIFAR-10圖像的生成 // 160
13.6.1 加載CIFAR-10 // 160
13.6.2 構建生成器 // 160
13.6.3 構建鑒別器 // 161
13.6.4 訓練循環(huán) // 161
13.6.5 模型評估 // 161
13.7 小結 // 162

本目錄推薦

掃描二維碼
Copyright ? 讀書網 www.talentonion.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網安備 42010302001612號