定 價:¥49.80
作 者: | 李軒涯,張暐 |
出版社: | 清華大學出版社 |
叢編項: | |
標 簽: | 暫缺 |
ISBN: | 9787302577164 | 出版時間: | 2021-06-01 | 包裝: | |
開本: | 16開 | 頁數: | 119 | 字數: |
第1章 作為機器學習模型的神經網絡
1.1 表示學習
1.2 感知器與神經網絡
1.3 使用keras
第2章 神經網絡的訓練
2.1 基于梯度的一階優(yōu)化
2.2 基于梯度的二階優(yōu)化
2.3 普通訓練方法的局限
2.4 誤差反向傳播算法的本質
2.5 使用keras
第3章 神經網絡的優(yōu)化難題
3.1 局部極小值,鞍點和非凸優(yōu)化
3.2 隨機梯度下降的優(yōu)勢
3.3 梯度方向優(yōu)化
3.4 動態(tài)調整學習率
3.5 使用keras
第4章 神經網絡的過擬合
4.1 參數綁定和提前終止
4.2 數據增強和噪聲添加
4.3 Dropout
4.4 使用keras
第5章 神經網絡的神經單元
5.1 梯度消失和梯度爆炸
5.2 隱藏單元設計原則和sigmoid的非零中心
5.3 基于線性函數的改進和maxout單元
5.4 使用keras
第6章 神經網絡的深度訓練
6.1 預處理和批標準化
6.2 批標準化的不同視角:協變量偏差和協調更新
6.3 自歸一化神經網絡
6.4 ResNet
6.5 使用keras
第7章 卷積神經網絡
7.1 局部連接和權重共享
7.2 卷積操作的重要概念
7.3 卷積核的參數學習
7.4 基于感受野的三個卷積技巧
7.5 使用keras
第8章 循環(huán)神經網絡
8.1 理解循環(huán)結構
8.2 循環(huán)結構的參數學習
8.3 正交初始化和記憶容量
8.4 理解LSTM
8.5 使用keras
第9章 無監(jiān)督表示學習:自編碼器
9.1 自編碼器
9.2 稀疏自編碼器
9.3 收縮自編碼器
9.4 使用keras
第10章 概率生成模型
10.1 變分自編碼器
10.2 生成對抗網絡
10.3 使用keras
參考文獻