注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學技術計算機/網(wǎng)絡人工智能深度學習原理與PyTorch實戰(zhàn)

深度學習原理與PyTorch實戰(zhàn)

深度學習原理與PyTorch實戰(zhàn)

定 價:¥79.00

作 者: 集智俱樂部 著
出版社: 人民郵電出版社
叢編項: 圖靈原創(chuàng)
標 簽: 暫缺

購買這本書可以去


ISBN: 9787115516053 出版時間: 2019-08-01 包裝: 平裝
開本: 16開 頁數(shù): 331 字數(shù):  

內容簡介

  本書是一本系統(tǒng)介紹深度學習及開源框架PyTorch的入門書。全書注重實戰(zhàn),每章圍繞一個有意思的實戰(zhàn)案例展開,不僅循序漸進地講解了PyTorch的基本使用、神經(jīng)網(wǎng)絡的搭建、卷積神經(jīng)網(wǎng)絡和循環(huán)神經(jīng)網(wǎng)絡的實現(xiàn),而且全面深入地介紹了計算機視覺、自然語言處理、遷移學習,以及對抗學習和深度強化學習等前沿技術。讀者通過閱讀本書,可以輕松入門深度學習,學會構造一個圖像識別器,生成逼真的圖畫,讓機器理解單詞與文本,讓機器作曲,教會機器玩游戲,還可以實現(xiàn)一個簡單的機器翻譯系統(tǒng)。本書適用于人工智能行業(yè)的軟件工程師、對人工智能感興趣的學生,也非常適合作為深度學習培訓教程。

作者簡介

  集智俱樂部(Swarma Club),成立于2003年,是一個從事學術研究、享受科學樂趣的探索者團體。倡導以平等開放的態(tài)度、科學實證的精神,進行跨學科的研究與交流,力圖搭建一個中國的“沒有圍墻的研究所”。目前已出版著 作有《科學的**:漫談人工智能》和《走近 2050:注意力、互聯(lián)網(wǎng)與人工智能》,譯作有《深度思考:人工智能的終點與人類創(chuàng)造力的起點》。

圖書目錄

目  錄
第 1章 深度學習簡介 1
1.1 深度學習與人工智能 1
1.2 深度學習的歷史淵源 2
1.2.1 從感知機到人工神經(jīng)網(wǎng)絡 3
1.2.2 深度學習時代 4
1.2.3 巨頭之間的角逐 5
1.3 深度學習的影響因素 6
1.3.1 大數(shù)據(jù) 6
1.3.2 深度網(wǎng)絡架構 7
1.3.3 GPU 11
1.4 深度學習為什么如此成功 11
1.4.1 特征學習(representation learning) 11
1.4.2 遷移學習(transfer learning) 12
1.5 小結 13
參考文獻 14
第 2章 PyTorch簡介 15
2.1 PyTorch安裝 15
2.2 初識PyTorch 15
2.2.1 與Python的完美融合 16
2.2.2 張量計算 16
2.2.3 動態(tài)計算圖 20
2.3 PyTorch實例:預測房價 27
2.3.1 準備數(shù)據(jù) 27
2.3.2 模型設計 28
2.3.3 訓練 29
2.3.4 預測 31
2.3.5 術語匯總 32
2.4 小結 33
第3章 單車預測器:你的第 一個
神經(jīng)網(wǎng)絡 35
3.1 共享單車的煩惱 35
3.2 單車預測器1.0 37
3.2.1 神經(jīng)網(wǎng)絡簡介 37
3.2.2 人工神經(jīng)元 38
3.2.3 兩個隱含層神經(jīng)元 40
3.2.4 訓練與運行 42
3.2.5 失敗的神經(jīng)預測器 43
3.2.6 過擬合 48
3.3 單車預測器2.0 49
3.3.1 數(shù)據(jù)的預處理過程 49
3.3.2 構建神經(jīng)網(wǎng)絡 52
3.3.3 測試神經(jīng)網(wǎng)絡 55
3.4 剖析神經(jīng)網(wǎng)絡Neu 57
3.5 小結 61
3.6 Q&A 61
第4章 機器也懂感情——中文情緒
分類器 63
4.1 神經(jīng)網(wǎng)絡分類器 64
4.1.1 如何用神經(jīng)網(wǎng)絡做分類 64
4.1.2 分類問題的損失函數(shù) 66
4.2 詞袋模型分類器 67
4.2.1 詞袋模型簡介 68
4.2.2 搭建簡單文本分類器 69
4.3 程序實現(xiàn) 70
4.3.1 數(shù)據(jù)獲取 70
4.3.2 數(shù)據(jù)處理 74
4.3.3 文本數(shù)據(jù)向量化 75
4.3.4 劃分數(shù)據(jù)集 76
4.3.5 建立神經(jīng)網(wǎng)絡 78
4.4 運行結果 80
4.5 剖析神經(jīng)網(wǎng)絡 81
4.6 小結 85
4.7 Q&A 85
第5章 手寫數(shù)字識別器——認識卷積
神經(jīng)網(wǎng)絡 87
5.1 什么是卷積神經(jīng)網(wǎng)絡 88
5.1.1 手寫數(shù)字識別任務的CNN
網(wǎng)絡及運算過程 88
5.1.2 卷積運算操作 90
5.1.3 池化操作 96
5.1.4 立體卷積核 97
5.1.5 超參數(shù)與參數(shù) 98
5.1.6 其他說明 99
5.2 手寫數(shù)字識別器 100
5.2.1 數(shù)據(jù)準備 100
5.2.2 構建網(wǎng)絡 103
5.2.3 運行模型 105
5.2.4 測試模型 106
5.3 剖析卷積神經(jīng)網(wǎng)絡 107
5.3.1 第 一層卷積核與特征圖 107
5.3.2 第二層卷積核與特征圖 109
5.3.3 卷積神經(jīng)網(wǎng)絡的健壯性試驗 110
5.4 小結 112
5.5 Q&A 112
5.6 擴展閱讀 112
第6章 手寫數(shù)字加法機——遷移學習 113
6.1 什么是遷移學習 114
6.1.1 遷移學習的由來 114
6.1.2 遷移學習的分類 115
6.1.3 遷移學習的意義 115
6.1.4 如何用神經(jīng)網(wǎng)絡實現(xiàn)遷移
學習 116
6.2 應用案例:遷移學習如何抗擊貧困 118
6.2.1 背景介紹 118
6.2.2 方法探尋 119
6.2.3 遷移學習方法 120
6.3 螞蟻還是蜜蜂:遷移大型卷積神經(jīng)
網(wǎng)絡 121
6.3.1 任務描述與初步嘗試 121
6.3.2 ResNet與模型遷移 122
6.3.3 代碼實現(xiàn) 123
6.3.4 結果分析 127
6.3.5 更多的模型與數(shù)據(jù) 128
6.4 手寫數(shù)字加法機 128
6.4.1 網(wǎng)絡架構 128
6.4.2 代碼實現(xiàn) 129
6.4.3 訓練與測試 136
6.4.4 結果 138
6.4.5 大規(guī)模實驗 138
6.5 小結 143
6.6 實踐項目:遷移與效率 143
第7章 你自己的Prisma——圖像
風格遷移 145
7.1 什么是風格遷移 145
7.1.1 什么是風格 145
7.1.2 風格遷移的涵義 146
7.2 風格遷移技術發(fā)展簡史 147
7.2.1 神經(jīng)網(wǎng)絡之前的風格遷移 147
7.2.2 特定風格的實現(xiàn) 148
7.3 神經(jīng)網(wǎng)絡風格遷移 149
7.3.1 神經(jīng)網(wǎng)絡風格遷移的優(yōu)勢 150
7.3.2 神經(jīng)網(wǎng)絡風格遷移的基本
思想 150
7.3.3 卷積神經(jīng)網(wǎng)絡的選取 151
7.3.4 內容損失 152
7.3.5 風格損失 152
7.3.6 風格損失原理分析 153
7.3.7 損失函數(shù)與優(yōu)化 156
7.4 神經(jīng)網(wǎng)絡風格遷移實戰(zhàn) 157
7.4.1 準備工作 157
7.4.2 建立風格遷移網(wǎng)絡 159
7.4.3 風格遷移訓練 162
7.5 小結 165
7.6 擴展閱讀 165
第8章 人工智能造假術——圖像生成
與對抗學習 166
8.1 反卷積與圖像生成 169
8.1.1 CNN回顧 169
8.1.2 反卷積操作 171
8.1.3 反池化過程 173
8.1.4 反卷積與分數(shù)步伐 174
8.1.5 輸出圖像尺寸公式 175
8.1.6 批正則化技術 176
8.2 圖像生成實驗1——最小均方誤差
模型 177
8.2.1 模型思路 177
8.2.2 代碼實現(xiàn) 178
8.2.3 運行結果 182
8.3 圖像生成實驗2——生成器-識別器
模型 184
8.3.1 生成器-識別器模型的實現(xiàn) 184
8.3.2 對抗樣本 187
8.4 圖像生成實驗3——生成對抗網(wǎng)絡
GAN 190
8.4.1 GAN的總體架構 191
8.4.2 程序實現(xiàn) 192
8.4.3 結果展示 195
8.5 小結 197
8.6 Q&A 197
8.7 擴展閱讀 198
第9章 詞匯的星空——神經(jīng)語言模型
與Word2Vec 199
9.1 詞向量技術介紹 199
9.1.1 初識詞向量 199
9.1.2 傳統(tǒng)編碼方式 200
9.2 NPLM:神經(jīng)概率語言模型 201
9.2.1 NPLM的基本思想 202
9.2.2 NPLM的運作過程詳解 202
9.2.3 讀取NPLM中的詞向量 205
9.2.4 NPLM的編碼實現(xiàn) 206
9.2.5 運行結果 209
9.2.6 NPLM的總結與局限 211
9.3 Word2Vec 211
9.3.1 CBOW模型和Skip-gram模型的結構 211
9.3.2 層級軟最大 213
9.3.3 負采樣 213
9.3.4 總結及分析 214
9.4 Word2Vec的應用 214
9.4.1 在自己的語料庫上訓練Word2Vec詞向量 214
9.4.2 調用現(xiàn)成的詞向量 216
9.4.3 女人-男人=皇后-國王 218
9.4.4 使用向量的空間位置進行詞對詞翻譯 220
9.4.5 Word2Vec小結 221
9.5 小結 221
9.5 Q&A 222
第 10章 LSTM作曲機——序列生成
模型 224
10.1 序列生成問題 224
10.2 RNN與LSTM 225
10.2.1 RNN 226
10.2.2 LSTM 231
10.3 簡單01序列的學習問題 235
10.3.1 RNN的序列學習 236
10.3.2 LSTM的序列學習 245
10.4 LSTM作曲機 248
10.4.1 MIDI文件 248
10.4.2 數(shù)據(jù)準備 249
10.4.3 模型結構 249
10.4.4 代碼實現(xiàn) 250
10.5 小結 259
10.6 Q&A 259
10.7 擴展閱讀 259

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) www.talentonion.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號