注冊(cè) | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)軟件與程序設(shè)計(jì)Python機(jī)器學(xué)習(xí)手冊(cè):從數(shù)據(jù)預(yù)處理到深度學(xué)習(xí)

Python機(jī)器學(xué)習(xí)手冊(cè):從數(shù)據(jù)預(yù)處理到深度學(xué)習(xí)

Python機(jī)器學(xué)習(xí)手冊(cè):從數(shù)據(jù)預(yù)處理到深度學(xué)習(xí)

定 價(jià):¥89.00

作 者: [美] ChrisAlbon(克里斯阿爾本) 著,韓慧昌 譯
出版社: 電子工業(yè)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購買這本書可以去


ISBN: 9787121369629 出版時(shí)間: 2019-07-01 包裝: 平裝
開本: 16開 頁數(shù): 368 字?jǐn)?shù):  

內(nèi)容簡介

  《Python機(jī)器學(xué)習(xí)手冊(cè):從數(shù)據(jù)預(yù)處理到深度學(xué)習(xí)》采用基于任務(wù)的方式來介紹如何在機(jī)器學(xué)習(xí)中使用Python。書中有近200個(gè)獨(dú)立的解決 方案,針對(duì)的都是數(shù)據(jù)科學(xué)家或機(jī)器學(xué)習(xí)工程師在構(gòu)建模型時(shí)可能遇到的常見任務(wù),涵蓋從簡 單的矩陣和向量運(yùn)算到特征工程以及神經(jīng)網(wǎng)絡(luò)的構(gòu)建。所有方案都提供了相關(guān)代碼,讀者可以 復(fù)制并粘貼這些代碼,用在自己的程序中。 《Python機(jī)器學(xué)習(xí)手冊(cè):從數(shù)據(jù)預(yù)處理到深度學(xué)習(xí)》不是機(jī)器學(xué)習(xí)的入門書,適合熟悉機(jī)器學(xué)習(xí)理論和概念的讀者閱讀。你可以將本書作 為案頭參考書,在機(jī)器學(xué)習(xí)的日常開發(fā)中遇到問題時(shí),隨時(shí)借鑒書中代碼,快速解決問題。

作者簡介

  Chris Albon是一位有十年經(jīng)驗(yàn)的數(shù)據(jù)科學(xué)家和政治學(xué)家,他將統(tǒng)計(jì)學(xué)習(xí)、人工智能和軟件工程應(yīng)用到政治和社會(huì)活動(dòng)以及人道主義活動(dòng)中,譬如監(jiān)查選舉情況、災(zāi)難救助等。目前,Chris是肯尼亞創(chuàng)業(yè)公司BRCK的首席數(shù)據(jù)科學(xué)家。這家公司致力于為前沿市場的互聯(lián)網(wǎng)用戶構(gòu)建一個(gè)穩(wěn)健的網(wǎng)絡(luò)。韓慧昌,畢業(yè)于北京科技大學(xué),ThoughtWorks高級(jí)咨詢師,有多個(gè)大型企業(yè)AI項(xiàng)目經(jīng)驗(yàn)。林然,有6年多的開發(fā)經(jīng)驗(yàn)、4年多Python開發(fā)經(jīng)驗(yàn),在航空、零售、物流、汽車、通訊等多個(gè)行業(yè)應(yīng)用過機(jī)器學(xué)習(xí)算法。徐江,畢業(yè)于瑞典皇家理工學(xué)院的系統(tǒng)生物學(xué)專業(yè),曾就職于Thoughtworks軟件技術(shù)有限公司。

圖書目錄

第1 章 向量、矩陣和數(shù)組 1
1.0 簡介 1
1.1 創(chuàng)建一個(gè)向量 1
1.2 創(chuàng)建一個(gè)矩陣 2
1.3 創(chuàng)建一個(gè)稀疏矩陣 3
1.4 選擇元素 5
1.5 展示一個(gè)矩陣的屬性 6
1.6 對(duì)多個(gè)元素同時(shí)應(yīng)用某個(gè)操作 7
1.7 找到最大值和最小值 8
1.8 計(jì)算平均值、方差和標(biāo)準(zhǔn)差 9
1.9 矩陣變形 10
1.10 轉(zhuǎn)置向量或矩陣 11
1.11 展開一個(gè)矩陣 12
1.12 計(jì)算矩陣的秩 13
1.13 計(jì)算行列式 14
1.14 獲取矩陣的對(duì)角線元素 14
1.15 計(jì)算矩陣的跡 15
1.16 計(jì)算特征值和特征向量 16
1.17 計(jì)算點(diǎn)積 17
1.18 矩陣的相加或相減 18
1.19 矩陣的乘法 19
1.20 計(jì)算矩陣的逆 20
1.21 生成隨機(jī)數(shù) 21

第2 章 加載數(shù)據(jù) 23
2.0 簡介 23
2.1 加載樣本數(shù)據(jù)集 23
2.2 創(chuàng)建仿真數(shù)據(jù)集 25
2.3 加載CSV 文件 28
2.4 加載Excel 文件 29
2.5 加載JSON 文件 29
2.6 查詢SQL 數(shù)據(jù)庫 31

第3 章 數(shù)據(jù)整理 33
3.0 簡介 33
3.1 創(chuàng)建一個(gè)數(shù)據(jù)幀 34
3.2 描述數(shù)據(jù) 35
3.3 瀏覽數(shù)據(jù)幀 37
3.4 根據(jù)條件語句來選擇行 39
3.5 替換值 40
3.6 重命名列 41
3.7 計(jì)算最小值、最大值、總和、平均值與計(jì)數(shù)值 43
3.8 查找唯一值 44
3.9 處理缺失值 45
3.10 刪除一列 47
3.11 刪除一行 48
3.12 刪除重復(fù)行 49
3.13 根據(jù)值對(duì)行分組 51
3.14 按時(shí)間段對(duì)行分組 52
3.15 遍歷一個(gè)列的數(shù)據(jù) 54
3.16 對(duì)一列的所有元素應(yīng)用某個(gè)函數(shù) 55
3.17 對(duì)所有分組應(yīng)用一個(gè)函數(shù) 56
3.18 連接多個(gè)數(shù)據(jù)幀 57
3.19 合并兩個(gè)數(shù)據(jù)幀 59

第4 章 處理數(shù)值型數(shù)據(jù) 63
4.0 簡介 63
4.1 特征的縮放 63
4.2 特征的標(biāo)準(zhǔn)化 65
4.3 歸一化觀察值 66
4.4 生成多項(xiàng)式和交互特征 69
4.5 轉(zhuǎn)換特征 70
4.6 識(shí)別異常值 71
4.7 處理異常值 73
4.8 將特征離散化 75
4.9 使用聚類的方式將觀察值分組 77
4.10 刪除帶有缺失值的觀察值 79
4.11 填充缺失值 81

第5 章 處理分類數(shù)據(jù) 83
5.0 簡介 83
5.1 對(duì)nominal 型分類特征編碼 84
5.2 對(duì)ordinal 分類特征編碼 86
5.3 對(duì)特征字典編碼 88
5.4 填充缺失的分類值 91
5.5 處理不均衡分類 93

第6 章 處理文本 97
6.0 簡介 97
6.1 清洗文本 97
6.2 解析并清洗HTML 99
6.3 移除標(biāo)點(diǎn) 100
6.4 文本分詞 101
6.5 刪除停止詞(stop word) 102
6.6 提取詞干 103
6.7 標(biāo)注詞性 104
6.8 將文本編碼成詞袋(Bag of Words) 107
6.9 按單詞的重要性加權(quán) 109

第7 章 處理日期和時(shí)間 113
7.0 簡介 113
7.1 把字符串轉(zhuǎn)換成日期 113
7.2 處理時(shí)區(qū) 115
7.3 選擇日期和時(shí)間 116
7.4 將日期數(shù)據(jù)切分成多個(gè)特征 117
7.5 計(jì)算兩個(gè)日期之間的時(shí)間差 118
7.6 對(duì)一周內(nèi)的各天進(jìn)行編碼 119
7.7 創(chuàng)建一個(gè)滯后的特征 120
7.8 使用滾動(dòng)時(shí)間窗口 121
7.9 處理時(shí)間序列中的缺失值 123

第8 章 圖像處理 127
8.0 簡介 127
8.1 加載圖像 128
8.2 保存圖像 130
8.3 調(diào)整圖像大小 131
8.4 裁剪圖像 132
8.5 平滑處理圖像 133
8.6 圖像銳化 136
8.7 提升對(duì)比度 138
8.8 顏色分離 140
8.9 圖像二值化 142
8.10 移除背景 144
8.11 邊緣檢測 148
8.12 角點(diǎn)檢測 150
8.13 為機(jī)器學(xué)習(xí)創(chuàng)建特征 153
8.14 將顏色平均值編碼成特征 156
8.15 將色彩直方圖編碼成特征 157

第9 章 利用特征提取進(jìn)行特征降維 161
9.0 簡介 161
9.1 使用主成分進(jìn)行特征降維 161
9.2 對(duì)線性不可分?jǐn)?shù)據(jù)進(jìn)行特征降維 164
9.3 通過最大化類間可分性進(jìn)行特征降維 166
9.4 使用矩陣分解法進(jìn)行特征降維 169
9.5 對(duì)稀疏數(shù)據(jù)進(jìn)行特征降維 170

第10 章 使用特征選擇進(jìn)行降維 173
10.0 簡介 173
10.1 數(shù)值型特征方差的閾值化 173
10.2 二值特征的方差閾值化 175
10.3 處理高度相關(guān)性的特征 176
10.4 刪除與分類任務(wù)不相關(guān)的特征 178
10.5 遞歸式特征消除 180

第11 章 模型評(píng)估 183
11.0 簡介 183
11.1 交叉驗(yàn)證模型 183
11.2 創(chuàng)建一個(gè)基準(zhǔn)回歸模型 . 187
11.3 創(chuàng)建一個(gè)基準(zhǔn)分類模型 188
11.4 評(píng)估二元分類器 190
11.5 評(píng)估二元分類器的閾值 193
11.6 評(píng)估多元分類器 197
11.7 分類器性能的可視化 198
11.8 評(píng)估回歸模型 201
11.9 評(píng)估聚類模型 203
11.10 創(chuàng)建自定義評(píng)估指標(biāo) 204
11.11 可視化訓(xùn)練集規(guī)模的影響 206
11.12 生成對(duì)評(píng)估指標(biāo)的報(bào)告 208
11.13 可視化超參數(shù)值的效果 209

第12 章 模型選擇 213
12.0 簡介 213
12.1 使用窮舉搜索選擇最佳模型 213
12.2 使用隨機(jī)搜索選擇最佳模型 216
12.3 從多種學(xué)習(xí)算法中選擇最佳模型 218
12.4 將數(shù)據(jù)預(yù)處理加入模型選擇過程 . 220
12.5 用并行化加速模型選擇 221
12.6 使用針對(duì)特定算法的方法加速模型選擇 223
12.7 模型選擇后的性能評(píng)估 224

第13 章 線性回歸 227
13.0 簡介 227
13.1 擬合一條直線 227
13.2 處理特征之間的影響 229
13.3 擬合非線性關(guān)系 231
13.4 通過正則化減少方差 233
13.5 使用套索回歸減少特征 235

第14 章 樹和森林 237
14.0 簡介 237
14.1 訓(xùn)練決策樹分類器 237
14.2 訓(xùn)練決策樹回歸模型 239
14.3 可視化決策樹模型 240
14.4 訓(xùn)練隨機(jī)森林分類器 243
14.5 訓(xùn)練隨機(jī)森林回歸模型 244
14.6 識(shí)別隨機(jī)森林中的重要特征 245
14.7 選擇隨機(jī)森林中的重要特征 248
14.8 處理不均衡的分類 249
14.9 控制決策樹的規(guī)模 250
14.10 通過boosting 提高性能 252
14.11 使用袋外誤差(Out-of-Bag Error)評(píng)估隨機(jī)森林模型 253

第15 章 KNN 255
15.0 簡介 255
15.1 找到一個(gè)觀察值的最近鄰 255
15.2 創(chuàng)建一個(gè)KNN 分類器 258
15.3 確定最佳的鄰域點(diǎn)集的大小 260
15.4 創(chuàng)建一個(gè)基于半徑的最近鄰分類器 261

第16 章 邏輯回歸 263
16.0 簡介 263
16.1 訓(xùn)練二元分類器 263
16.2 訓(xùn)練多元分類器 265
16.3 通過正則化來減小方差 266
16.4 在超大數(shù)據(jù)集上訓(xùn)練分類器 267
16.5 處理不均衡的分類 269

第17 章 支持向量機(jī) 271
17.0 簡介 271
17.1 訓(xùn)練一個(gè)線性分類器 271
17.2 使用核函數(shù)處理線性不可分的數(shù)據(jù) 274
17.3 計(jì)算預(yù)測分類的概率 278
17.4 識(shí)別支持向量 279
17.5 處理不均衡的分類 281

第18 章 樸素貝葉斯 283
18.0 簡介 283
18.1 為連續(xù)的數(shù)據(jù)訓(xùn)練分類器 284
18.2 為離散數(shù)據(jù)和計(jì)數(shù)數(shù)據(jù)訓(xùn)練分類器 286
18.3 為具有二元特征的數(shù)據(jù)訓(xùn)練樸素貝葉斯分類器 287
18.4 校準(zhǔn)預(yù)測概率 288

第19 章 聚類 291
19.0 簡介 291
19.1 使用K-Means 聚類算法 291
19.2 加速K-Means 聚類 294
19.3 使用Meanshift 聚類算法 295
19.4 使用DBSCAN 聚類算法 296
19.5 使用層次合并聚類算法 298

第20 章 神經(jīng)網(wǎng)絡(luò) 301
20.0 簡介 301
20.1 為神經(jīng)網(wǎng)絡(luò)預(yù)處理數(shù)據(jù) 302
20.2 設(shè)計(jì)一個(gè)神經(jīng)網(wǎng)絡(luò) 304
20.3 訓(xùn)練一個(gè)二元分類器 307
20.4 訓(xùn)練一個(gè)多元分類器 309
20.5 訓(xùn)練一個(gè)回歸模型 311
20.6 做預(yù)測 313
20.7 可視化訓(xùn)練歷史 315
20.8 通過權(quán)重調(diào)節(jié)減少過擬合 318
20.9 通過提前結(jié)束減少過擬合 320
20.10 通過Dropout 減少過擬合 322
20.11 保存模型訓(xùn)練過程 324
20.12 使用k 折交叉驗(yàn)證評(píng)估神經(jīng)網(wǎng)絡(luò) 326
20.13 調(diào)校神經(jīng)網(wǎng)絡(luò) 328
20.14 可視化神經(jīng)網(wǎng)絡(luò) 331
20.15 圖像分類 333
20.16 通過圖像增強(qiáng)來改善卷積神經(jīng)網(wǎng)絡(luò)的性能 . 337
20.17 文本分類 339

第21 章 保存和加載訓(xùn)練后的模型 343
21.0 簡介 343
21.1 保存和加載scikit-learn 模型 343
21.2 保存和加載Keras 模型 345

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) www.talentonion.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)