注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計算機/網(wǎng)絡(luò)人工智能深度學(xué)習(xí):R語言實踐指南

深度學(xué)習(xí):R語言實踐指南

深度學(xué)習(xí):R語言實踐指南

定 價:¥59.00

作 者: (美)托威赫·貝索洛
出版社: 機械工業(yè)出版社
叢編項:
標(biāo) 簽: 暫缺

購買這本書可以去


ISBN: 9787111604372 出版時間: 2018-08-01 包裝: 平裝
開本: 16開 頁數(shù): 字?jǐn)?shù):  

內(nèi)容簡介

  本書內(nèi)容主要涉及:深度學(xué)習(xí)的數(shù)學(xué)理論基礎(chǔ),包括重要的統(tǒng)計學(xué)和線性代數(shù)的相關(guān)基本概念和知識;深度學(xué)習(xí)的各種典型模型,例如傳統(tǒng)的單層感知器模型、多層感知器模型,以及卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、受限玻耳茲曼機、深度信念網(wǎng)絡(luò)等一些更為復(fù)雜的模型;構(gòu)建深度學(xué)習(xí)模型的實驗設(shè)計方法以及實驗過程中的特征選擇方法;應(yīng)用R語言進(jìn)行機器學(xué)習(xí)和深度學(xué)習(xí)實踐的案例。

作者簡介

  ABOUTTHEAUTHOR關(guān) 于 作 者Taweh Beysolow Ⅱ機器學(xué)習(xí)科學(xué)家,現(xiàn)居美國,熱衷于研究及應(yīng)用機器學(xué)習(xí)方法解決實際問題。他本科畢業(yè)于圣約翰大學(xué),獲得經(jīng)濟學(xué)學(xué)士學(xué)位,后獲得福特漢姆大學(xué)應(yīng)用統(tǒng)計學(xué)碩士學(xué)位。他對一切與機器學(xué)習(xí)、數(shù)據(jù)科學(xué)、計量金融及經(jīng)濟學(xué)相關(guān)的內(nèi)容都有著巨大的熱情。

圖書目錄

譯者序

關(guān)于作者

關(guān)于技術(shù)審稿人

前言

第1章深度學(xué)習(xí)簡介

1.1深度學(xué)習(xí)模型

1.1.1單層感知器模型

1.1.2多層感知器模型

1.1.3卷積神經(jīng)網(wǎng)絡(luò)

1.1.4循環(huán)神經(jīng)網(wǎng)絡(luò)

1.1.5受限玻耳茲曼機

1.1.6深度信念網(wǎng)絡(luò)

1.2其他

1.2.1實驗設(shè)計

1.2.2特征選擇

1.2.3機器學(xué)習(xí)及深度學(xué)習(xí)應(yīng)用

1.2.4深度學(xué)習(xí)的歷史

1.3小結(jié)

第2章數(shù)學(xué)知識回顧

2.1統(tǒng)計學(xué)基本概念

2.1.1概率

2.1.2交與并

2.1.3貝葉斯定理

2.1.4隨機變量

2.1.5方差

2.1.6標(biāo)準(zhǔn)差

2.1.7可決系數(shù)

2.1.8均方誤差

2.2線性代數(shù)

2.2.1標(biāo)量和向量

2.2.2向量的特性

2.2.3公理

2.2.4子空間

2.2.5矩陣

2.3小結(jié)

第3章優(yōu)化及機器學(xué)習(xí)回顧

3.1無約束優(yōu)化

3.1.1局部極小值

3.1.2全局極小值

3.1.3局部極小值的條件

3.2近鄰算法

3.3機器學(xué)習(xí)方法:有監(jiān)督學(xué)習(xí)

3.3.1機器學(xué)習(xí)的歷史

3.3.2什么是算法

3.4回歸模型

3.5選擇合適的學(xué)習(xí)速率

3.5.1牛頓法

3.5.2LevenbergMarquardt啟發(fā)式方法

3.6多重共線性

3.7評價回歸模型

3.8分類

3.8.1邏輯回歸

3.8.2受試者工作特征曲線

3.8.3混淆矩陣

3.8.4邏輯回歸的局限性

3.8.5支持向量機

3.9機器學(xué)習(xí)方法:無監(jiān)督學(xué)習(xí)

3.9.1K均值聚類

3.9.2K均值聚類的局限性

3.10最大期望算法

3.11決策樹學(xué)習(xí)

3.12集成方法以及其他啟發(fā)式算法

3.13貝葉斯學(xué)習(xí)

3.14強化學(xué)習(xí)

3.15小結(jié)

第4章單層及多層感知器模型

4.1單層感知器模型

4.1.1訓(xùn)練感知器模型

4.1.2WH算法

4.1.3單層感知器模型的局限性

4.1.4匯總統(tǒng)計結(jié)果

4.2多層感知器模型

4.2.1收斂得到全局最優(yōu)解

4.2.2MLP模型中的反向傳播算法

4.2.3MLP模型的局限性和討論

4.2.4應(yīng)該使用幾層隱含層,又應(yīng)該有多少個神經(jīng)元

4.3小結(jié)

第5章卷積神經(jīng)網(wǎng)絡(luò)

5.1CNN的結(jié)構(gòu)和特點

5.2CNN的組成

5.2.1卷積層

5.2.2池化層

5.2.3修正線性單元層

5.2.4全連接層

5.2.5損失層

5.3參數(shù)調(diào)整

5.4經(jīng)典的CNN架構(gòu)

5.5正則化

5.6小結(jié)

第6章循環(huán)神經(jīng)網(wǎng)絡(luò)

6.1完全循環(huán)網(wǎng)絡(luò)

6.2使用時間反向傳播訓(xùn)練RNN

6.3Elman神經(jīng)網(wǎng)絡(luò)

6.4神經(jīng)歷史壓縮器

6.5長短期記憶網(wǎng)絡(luò)

6.6RNN里的結(jié)構(gòu)化抑制

6.7參數(shù)調(diào)優(yōu)更新算法

6.8RNN的實際案例:模式檢測

6.9小結(jié)

第7章自編碼器、受限玻耳茲曼機及深度信念網(wǎng)絡(luò)

7.1自編碼器

7.2受限玻耳茲曼機

7.3深度信念網(wǎng)絡(luò)

7.4快速學(xué)習(xí)算法

7.5小結(jié)

第8章實驗設(shè)計與啟發(fā)

8.1方差分析

8.2F統(tǒng)計和F分布

8.3PlackettBurman設(shè)計

8.4空間填充

8.5全因子

8.6Halton、Faure和Sobol序列

8.7A/B測試

8.7.1簡單雙樣本A/B測試

8.7.2A/B測試中的β二項層次模型

8.8特征、變量選擇技術(shù)

8.8.1后向與前向選擇

8.8.2主成分分析

8.8.3因子分析

8.9處理分類數(shù)據(jù)

8.9.1因子水平編碼

8.9.2分類標(biāo)簽問題:太多水平值

8.9.3典型相關(guān)分析

8.10包裹式、過濾式及嵌入式算法

8.11其他局部搜索算法

8.11.1登山算法

8.11.2遺傳算法

8.11.3模擬退火

8.11.4蟻群優(yōu)化算法

8.11.5變鄰域搜索算法

8.12反應(yīng)式搜索優(yōu)化

8.12.1反應(yīng)式禁忌

8.12.2固定禁忌搜索

8.12.3反應(yīng)式禁忌搜索

8.12.4WalkSAT算法

8.12.5K近鄰

8.13小結(jié)

第9章軟硬件建議

9.1使用標(biāo)準(zhǔn)硬件處理數(shù)據(jù)

9.2固態(tài)硬盤和硬盤驅(qū)動器

9.3圖形處理單元

9.4中央處理器

9.5隨機存取存儲器

9.6主板

9.7供電設(shè)備

9.8機器學(xué)習(xí)軟件的優(yōu)化

9.9小結(jié)

第10章機器學(xué)習(xí)實例

10.1問題1:資產(chǎn)價格預(yù)測

10.1.1問題類型:有監(jiān)督學(xué)習(xí)——回歸

10.1.2實驗說明

10.1.3特征選擇

10.1.4模型評價

10.2問題2:速配

10.2.1問題類型:分類

10.2.2數(shù)據(jù)預(yù)處理:數(shù)據(jù)清洗和填充

10.2.3特征選擇

10.2.4模型訓(xùn)練和評價

10.3小結(jié)

第11章深度學(xué)習(xí)及其他實例

11.1自編碼器

11.2卷積神經(jīng)網(wǎng)絡(luò)

11.2.1預(yù)處理

11.2.2模型構(gòu)建和訓(xùn)練

11.3協(xié)同過濾

11.4小結(jié)

結(jié)束語


本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) www.talentonion.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號