第1章 數(shù)據的量化和特征提取
1.1 機器學習概述
1.2 特征提取
1.3 向量距離計算
第2章 線性回歸
2.1 線性回歸的基本概念
2.2 損失函數(shù)和梯度下降法
2.3 訓練集和測試集
2.4 多項式回歸
2.5 線性回歸的高級技巧
第3章 邏輯回歸
3.1 邏輯回歸的基本原理
3.2 交叉熵與KL距離
3.3 線性不可分及其解決方案
3.4 L1正則和L2正則
3.5 分類模型的評價標準
3.6 邏輯回歸的特征提升技巧
3.7 深入理解損失函數(shù)和邏輯函數(shù)
第4章 因子分解模型
4.1 基本原理和特征交叉
4.2 因子分解模型和矩陣分解
第5章 經典分類模型
5.1 支持向量機
5.2 核方法
5.3 樸素貝葉斯
5.4 維數(shù)災難
5.5 奧卡姆剃刀定律的應用
5.6 經驗風險、期望風險和結構風險
第6章 無監(jiān)督學習
6.1 K-Means聚類
6.2 主題模型
第7章 集成學習
7.1 決策樹
7.2 隨機森林
7.3 GBDT
第8章 深度神經網絡
8.1 神經網絡的基本原理
8.2 多分類與Softmax函數(shù)
8.3 梯度下降法和鏈式法則
8.4 度量學習
第9章 神經網絡調優(yōu)
9.1 激活函數(shù)選型
9.2 權重初始化
9.3 改進型梯度下降法
9.4 過擬合解決方案
第10章 自然語言處理
10.1 自然語言處理模型
10.2 one-hot編碼和embedding技術
10.3 哈夫曼樹和負采樣
10.4 Word2vec的應用
10.5 fastText模型的原理及應用
第11章 卷積神經網絡
11.1 卷積層和池化層
11.2 卷積神經網絡在圖像處理中的應用
11.3 卷積神經網絡中的批標準化
11.4 TextCNN的原理及應用
第12章 深入卷積層
12.1 1×1卷積核
12.2 小卷積核
12.3 寬度卷積和Inception
12.4 Depthwise卷積和Pointwise卷積
12.5 特征通道加權卷積
第13章 循環(huán)神經網絡和LSTM模型
13.1 循環(huán)神經網絡模型詳解
13.2 LSTM模型詳解
13.3 LSTM模型的改進和應用
13.4 CTC算法
第14章 Attention模型和Transformer模型
14.1 Attention模型詳解
14.2 Transformer模型原理
14.3 BERT模型及應用