注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)自然科學(xué)數(shù)學(xué)統(tǒng)計(jì)機(jī)器學(xué)習(xí)理論和方法及Python實(shí)現(xiàn)

統(tǒng)計(jì)機(jī)器學(xué)習(xí)理論和方法及Python實(shí)現(xiàn)

統(tǒng)計(jì)機(jī)器學(xué)習(xí)理論和方法及Python實(shí)現(xiàn)

定 價(jià):¥128.00

作 者: 徐禮文 著
出版社: 科學(xué)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買(mǎi)這本書(shū)可以去


ISBN: 9787030724380 出版時(shí)間: 2022-09-01 包裝: 平裝
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 236 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  《統(tǒng)計(jì)機(jī)器學(xué)習(xí)及Python實(shí)現(xiàn)》主要介紹統(tǒng)計(jì)機(jī)器學(xué)習(xí)領(lǐng)域常用的基礎(chǔ)模型、算法和代碼實(shí)現(xiàn)。包括統(tǒng)計(jì)機(jī)器學(xué)習(xí)、Python語(yǔ)言基礎(chǔ),常用的線性回歸、貝葉斯分類(lèi)器、邏輯回歸、SVM、核方法、集成學(xué)習(xí),以及深度學(xué)習(xí)中的多層感知器、卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、變分自編碼器、對(duì)抗生成網(wǎng)絡(luò)和強(qiáng)化學(xué)習(xí)等模型與優(yōu)化方法,使用Scikit-Learn、TensorFlow和PyTorch定制模型與訓(xùn)練等。

作者簡(jiǎn)介

暫缺《統(tǒng)計(jì)機(jī)器學(xué)習(xí)理論和方法及Python實(shí)現(xiàn)》作者簡(jiǎn)介

圖書(shū)目錄

目錄
前言
第1章 引言 1
1.1 問(wèn)題驅(qū)動(dòng) 1
1.2 統(tǒng)計(jì)機(jī)器學(xué)習(xí)的基本任務(wù) 2
1.3 統(tǒng)計(jì)機(jī)器學(xué)習(xí)的總體目標(biāo)和樣本策略 3
1.3.1 監(jiān)督學(xué)習(xí) 4
1.3.2 無(wú)監(jiān)督學(xué)習(xí) 8
1.3.3 基于樣本的統(tǒng)計(jì)機(jī)器學(xué)習(xí)方法 9
1.4 Anaconda、TensorFlow 2.0和PyTorch的安裝 10
1.4.1 Anaconda的安裝 10
1.4.2 TensorFlow 2.0的安裝 11
1.4.3 PyTorch的安裝 11
第2章 線性回歸 13
2.1 一般線性回歸模型 13
2.1.1 基本框架 13
2.1.2 梯度下降法 14
2.1.3 性能度量 15
2.2 多項(xiàng)式回歸 15
2.3 線性回歸的正則化方法 18
2.3.1 線性嶺回歸 19
2.3.2 LASSO回歸 21
2.4 線性回歸Python實(shí)現(xiàn) 24
第3章 線性分類(lèi)器 37
3.1 概率生成模型 37
3.2 二分類(lèi)概率生成模型 38
3.3 邏輯回歸 39
3.4 Softmax回歸 40
3.5 邏輯回歸的限制 41
3.6 分類(lèi)任務(wù)的Python實(shí)現(xiàn) 43
第4章 支持向量機(jī) 48
4.1 線性SVM分類(lèi)器 48
4.2 線性支持向量回歸 51
4.3 SVM的Python實(shí)現(xiàn) 52
4.3.1 軟間隔分類(lèi) 52
4.3.2 非線性SVM分類(lèi) 55
4.3.3 支持向量回歸的實(shí)現(xiàn) 58
第5章 核方法 61
5.1 特征映射 61
5.2 核函數(shù) 63
5.3 核方法的數(shù)學(xué)基礎(chǔ) 64
5.3.1 希爾伯特空間 65
5.3.2 Riesz表示定理 67
5.3.3 再生核希爾伯特空間 67
5.4 核技巧 70
5.5 核方法的Python實(shí)現(xiàn) 73
5.5.1 基于核方法的嶺回歸和支持向量回歸 73
5.5.2 基于核方法的支持向量分類(lèi) 76
第6章 集成學(xué)習(xí) 78
6.1 決策樹(shù) 78
6.1.1 決策樹(shù)的基本概念 78
6.1.2 決策樹(shù)的訓(xùn)練 80
6.2 學(xué)習(xí)器集成 81
6.3 Bagging和隨機(jī)森林 81
6.3.1 Bagging 81
6.3.2 隨機(jī)森林 83
6.4 Boosting 83
6.4.1 AdaBoost基本算法 84
6.4.2 AdaBoost算法的解釋 87
6.4.3 多分類(lèi)AdaBoost 91
6.4.4 Boosting的一般梯度下降算法 96
6.5 集成學(xué)習(xí)的Python實(shí)現(xiàn) 98
6.5.1 決策樹(shù)的Python實(shí)現(xiàn) 98
6.5.2 Bagging的Python實(shí)現(xiàn) 100
6.5.3 隨機(jī)森林的Python實(shí)現(xiàn) 101
6.5.4 Boosting的Python實(shí)現(xiàn) 102
第7章 深度學(xué)習(xí)的基礎(chǔ) 104
7.1 前饋神經(jīng)網(wǎng)絡(luò) 104
7.1.1 感知器模型 104
7.1.2 多層感知器及其變體 107
7.1.3 BP算法 110
7.1.4 回歸和分類(lèi)任務(wù)中的MLP 114
7.2 利用Keras和TensorFlow實(shí)施MLP 115
7.2.1 使用Sequential API建立分類(lèi)器 116
7.2.2 使用Functional API構(gòu)建復(fù)雜模型 123
7.2.3 使用Subclassing API構(gòu)建動(dòng)態(tài)模型 123
7.2.4 保存和恢復(fù)模型 124
第8章 卷積神經(jīng)網(wǎng)絡(luò) 126
8.1 簡(jiǎn)介 126
8.2 CNN的網(wǎng)絡(luò)架構(gòu) 126
第9章 循環(huán)神經(jīng)網(wǎng)絡(luò) 132
9.1 框架 132
9.2 循環(huán)層 132
9.3 長(zhǎng)短期記憶網(wǎng)絡(luò) 136
9.4 基于RNN的時(shí)間序列預(yù)測(cè) 139
第10章 無(wú)監(jiān)督學(xué)習(xí) 148
10.1 無(wú)監(jiān)督學(xué)習(xí)的主要任務(wù) 148
10.2 自編碼器 149
10.2.1 棧式自編碼器 150
10.2.2 變分自編碼器 152
10.3 GAN 163
10.3.1 經(jīng)典GAN的基本思想 164
10.3.2 經(jīng)典GAN的推廣 168
10.3.3 WGAN 170
10.3.4 條件GAN 175
10.4 無(wú)監(jiān)督學(xué)習(xí)的Python實(shí)現(xiàn) 181
10.4.1 PyTorch實(shí)戰(zhàn)基礎(chǔ) 181
10.4.2 圖像分類(lèi)的PyTorch實(shí)現(xiàn) 191
10.4.3 VAE的PyTorch實(shí)現(xiàn) 196
10.4.4 GAN的PyTorch實(shí)現(xiàn) 201
第11章 深度強(qiáng)化學(xué)習(xí) 205
11.1 深度強(qiáng)化學(xué)習(xí)的主要任務(wù) 205
11.2 強(qiáng)化學(xué)習(xí)的基本概念 205
11.2.1 強(qiáng)化學(xué)習(xí)的基本模型 206
11.2.2 價(jià)值函數(shù) 207
11.3 基于策略梯度的深度強(qiáng)化學(xué)習(xí) 207
11.4 基于值函數(shù)的深度強(qiáng)化學(xué)習(xí) 213
11.4.1 值函數(shù)的估計(jì)方法 213
11.4.2 Q-Learning 214
11.5 Actor-Critic方法 216
11.5.1 A2C和A3C方法 216
11.5.2 路徑導(dǎo)數(shù)策略梯度方法 218
11.6 強(qiáng)化學(xué)習(xí)的PyTorch實(shí)現(xiàn) 220
11.6.1 導(dǎo)入必需的包 220
11.6.2 回放內(nèi)存設(shè)置 222
11.6.3 獲取狀態(tài)輸入 224
11.6.4 訓(xùn)練 230
參考文獻(xiàn) 235

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) www.talentonion.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)