注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學技術(shù)計算機/網(wǎng)絡軟件與程序設計Python貝葉斯深度學習

Python貝葉斯深度學習

Python貝葉斯深度學習

定 價:¥79.80

作 者: [英]馬特·貝納坦(MattBenatan)約赫姆·吉特馬(JochemGietema),瑪麗安·施耐德(MarianSchneider)著,郭濤譯
出版社: 清華大學出版社
叢編項:
標 簽: 暫缺

購買這本書可以去


ISBN: 9787302672166 出版時間: 2024-10-01 包裝: 平裝-膠訂
開本: 16開 頁數(shù): 字數(shù):  

內(nèi)容簡介

  深度學習正日益深刻地滲入我們的生活,從建議內(nèi)容到在任務關(guān)鍵型和安全關(guān)鍵型應用中發(fā)揮核心作用,其影響無所不在。然而,隨著這些算法影響力的逐漸擴大,人們對于依賴這些算法的系統(tǒng)安全性和魯棒性的擔憂也日益加劇。簡言之,傳統(tǒng)的深度學習方法往往難以察覺自身的知識邊界,即它們“不知其所不知”。貝葉斯深度學習(Bayesian Deep Learning,BDL)領(lǐng)域包含一系列利用深度網(wǎng)絡進行近似貝葉斯推理的方法。這些方法通過揭示模型對其預測結(jié)果的置信度,增強了深度學習系統(tǒng)的魯棒性,使我們能夠更謹慎地將模型預測融入實際應用中。《Python貝葉斯深度學習》將引領(lǐng)你踏入迅速發(fā)展的不確定性感知深度學習領(lǐng)域,助你深入理解不確定性估計在構(gòu)建魯棒性的機器學習系統(tǒng)中的重要價值。你將學習多種流行的BDL方法,并通過涵蓋多種應用場景的Python實用示例來掌握這些方法的實現(xiàn)技巧。讀完本書后,你將深刻理解BDL及其優(yōu)勢,并能夠為更安全、更魯棒的深度學習系統(tǒng)開發(fā)貝葉斯深度學習模型。主要內(nèi)容:● 了解貝葉斯推理和深度學習的優(yōu)缺點● 了解貝葉斯神經(jīng)網(wǎng)絡(Bayesian Neural Network,BNN)的基本原理● 了解主要貝葉斯神經(jīng)網(wǎng)絡實現(xiàn)/近似之間的差異● 了解生產(chǎn)環(huán)境中概率深度神經(jīng)網(wǎng)絡的優(yōu)勢● 在Python代碼中實現(xiàn)各種貝葉斯深度學習方法● 運用貝葉斯深度學習方法解決實際問題● 學習如何評估貝葉斯深度學習方法并為特定任務選擇最佳方法● 在實際深度學習應用中處理“分布外”數(shù)據(jù)

作者簡介

  Matt Benatan博士是搜諾思(Sonos)的首席研究科學家,主要負責智能個性化系統(tǒng)的研究。他還獲得了曼徹斯特大學的西蒙工業(yè)獎學金,并在那里合作開展了多個人工智能研究項目。Matt在利茲大學獲得了視聽語音處理博士學位,之后進入工業(yè)界,在信號處理、材料發(fā)現(xiàn)和欺詐檢測等多個領(lǐng)域開展機器學習研究。Matt曾與他人合著了Wiley出版社出版的Deep learning for Physical Scientists一書,他目前的主要研究興趣包括面向用戶的人工智能、優(yōu)化和不確定性估計。Matt不僅要對妻子Rebecca的關(guān)心、耐心和支持深表感激,也要對父母Dan和Debby的不懈熱情、指導和鼓勵深表感激。Jochem Gietema在阿姆斯特丹學習哲學和法律,畢業(yè)后轉(zhuǎn)入機器學習領(lǐng)域。他目前在倫敦的Onfido公司擔任應用科學家,在計算機視覺和異常檢測領(lǐng)域開發(fā)并部署了多項專有的解決方案。Jochem熱衷于研究不確定性估計、交互式數(shù)據(jù)可視化以及用機器學習解決現(xiàn)實世界中的問題。Marian Schneider博士是機器學習和計算機視覺領(lǐng)域的應用科學家。他在馬斯特里赫特大學獲得了計算視覺神經(jīng)科學博士學位。此后,他從學術(shù)界轉(zhuǎn)入工業(yè)界,開發(fā)了一些機器學習解決方案并將其應用于多種產(chǎn)品,涵蓋從大腦圖像分割到不確定性估計,再到移動電話設備上更智能的圖像獲取等方面。Marian非常感謝他的伴侶Undine,因為在本書的寫作過程中Undine給予了他大力支持,尤其是在周末的寶貴時光里陪伴他,從而使本書的寫作工作得以順利進行。

圖書目錄

第1章  深度學習時代的貝葉斯推理 1
1.1  技術(shù)要求 2
1.2  深度學習時代的奇跡 2
1.3  了解深度學習的局限性 4
1.3.1  深度學習系統(tǒng)中的偏見 4
1.3.2  過高置信預測導致危險 5
1.3.3  變化趨勢 6
1.4  核心主題 7
1.5  設置工作環(huán)境 8
1.6  小結(jié) 9
第2章  貝葉斯推理基礎 11
2.1  重溫貝葉斯建模知識 11
2.2  通過采樣進行貝葉斯推理 14
2.2.1  近似分布 14
2.2.2  利用貝葉斯線性回歸實現(xiàn)概率推理 17
2.3  探討高斯過程 20
2.3.1  用核定義先驗信念 22
2.3.2  高斯過程的局限性 27
2.4  小結(jié) 28
2.5  延伸閱讀 28
第3章  深度學習基礎 29
3.1  技術(shù)要求 29
3.2  多層感知器 29
3.3  回顧神經(jīng)網(wǎng)絡架構(gòu) 32
3.3.1  探索卷積神經(jīng)網(wǎng)絡 32
3.3.2  探索循環(huán)神經(jīng)網(wǎng)絡 35
3.3.3  注意力機制 37
3.4  理解典型神經(jīng)網(wǎng)絡存在的問題 38
3.4.1  未經(jīng)校準和過高置信的預測 39
3.4.2  預測分布外數(shù)據(jù) 41
3.4.3  置信度高的分布外預測示例 44
3.4.4  易受對抗性操縱的影響 48
3.5  小結(jié) 52
3.6  延伸閱讀 52
第4章  貝葉斯深度學習介紹 55
4.1  技術(shù)要求 56
4.2  理想的貝葉斯神經(jīng)網(wǎng)絡 56
4.3  貝葉斯深度學習基本原理 58
4.3.1  高斯假設 58
4.3.2  不確定性的來源 60
4.3.3  超越極大似然:似然的重要性 63
4.4  貝葉斯深度學習工具 66
4.5  小結(jié) 69
4.6  延伸閱讀 69
第5章  貝葉斯深度學習原理方法 71
5.1  技術(shù)要求 71
5.2  解釋符號 72
5.3  深度學習中熟悉的概率概念 72
5.4  通過反向傳播進行貝葉斯推理 75
5.5  使用TensorFlow實現(xiàn)貝葉斯反向傳播 78
5.6  使用概率反向傳播擴展貝葉斯深度學習 82
5.7  實現(xiàn)概率反向傳播 85
5.8  小結(jié) 94
5.9  延伸閱讀 95
第6章  使用標準工具箱進行貝葉斯深度學習 97
6.1  技術(shù)要求 98
6.2  通過舍棄引入近似貝葉斯推理 98
6.2.1  利用舍棄進行近似貝葉斯推理 99
6.2.2  實現(xiàn)MC舍棄 100
6.3  使用集成學習進行模型不確定性估計 101
6.3.1  集成學習介紹 101
6.3.2  引入深度集成學習 101
6.3.3  實現(xiàn)深度集成學習 103
6.3.4  深度集成學習的實際局限性 106
6.4  探索用貝葉斯最后一層方法增強神經(jīng)網(wǎng)絡 106
6.4.1  貝葉斯推理的最后一層方法 107
6.4.2  最后一層MC舍棄 113
6.4.3  最后一層方法小結(jié) 115
6.5  小結(jié) 115
第7章  貝葉斯深度學習的實際考慮因素 117
7.1  技術(shù)要求 117
7.2  平衡不確定性質(zhì)量和計算考慮因素 118
7.2.1  設置實驗 118
7.2.2  分析模型性能 121
7.2.3  貝葉斯深度學習模型的計算考慮因素 124
7.2.4  選擇正確的模型 126
7.3  貝葉斯深度學習和不確定性來源 127
7.4  小結(jié) 143
7.5  延伸閱讀 143
第8章  貝葉斯深度學習應用 145
8.1  技術(shù)要求 145
8.2  檢測分布外數(shù)據(jù) 145
8.2.1  探討分布外檢測問題 146
8.2.2  系統(tǒng)評估分布外檢測性能 150
8.2.3  無需重新訓練的簡單分布外檢測 151
8.3  應對數(shù)據(jù)集漂移的魯棒方法 153
8.3.1  測量模型對數(shù)據(jù)集漂移的響應 153
8.3.2  用貝葉斯方法揭示數(shù)據(jù)集漂移 154
8.4  通過不確定性選擇數(shù)據(jù)來保持模型的新鮮度 169
8.5  利用不確定性估計進行更智能的強化學習 179
8.6  對對抗性輸入的敏感性 197
8.7  小結(jié) 201
8.8  延伸閱讀 201
第9章  貝葉斯深度學習的發(fā)展趨勢 203
9.1  貝葉斯深度學習的當前趨勢 203
9.2  如何應用貝葉斯深度學習方法解決現(xiàn)實世界中的問題 206
9.3  貝葉斯深度學習的最新方法 207
9.3.1  結(jié)合MC舍棄和深度集成學習 207
9.3.2  通過促進多樣性改進深度集成學習 208
9.3.3  超大網(wǎng)絡中的不確定性 209
9.4  貝葉斯深度學習的替代方案 211
9.4.1  可擴展的高斯過程 211
9.4.2  深度高斯過程 213
9.5  貝葉斯深度學習的下一步工作 213
9.6  延伸閱讀 214

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) www.talentonion.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號