注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)軟件與程序設(shè)計(jì)實(shí)用卷積神經(jīng)網(wǎng)絡(luò):運(yùn)用Python實(shí)現(xiàn)高級深度學(xué)習(xí)模型

實(shí)用卷積神經(jīng)網(wǎng)絡(luò):運(yùn)用Python實(shí)現(xiàn)高級深度學(xué)習(xí)模型

實(shí)用卷積神經(jīng)網(wǎng)絡(luò):運(yùn)用Python實(shí)現(xiàn)高級深度學(xué)習(xí)模型

定 價(jià):¥69.00

作 者: [印度] 莫希特·賽瓦克(Mohit Sewak) 著
出版社: 機(jī)械工業(yè)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購買這本書可以去


ISBN: 9787111621966 出版時(shí)間: 2019-05-01 包裝: 平裝
開本: 16 頁數(shù): 字?jǐn)?shù):  

內(nèi)容簡介

  第1章對深度神經(jīng)網(wǎng)絡(luò)的科學(xué)原理和實(shí)現(xiàn)這種網(wǎng)絡(luò)的不同框架以及框架背后的數(shù)學(xué)機(jī)制提供一個快速回顧。 第2章向讀者介紹卷積神經(jīng)網(wǎng)絡(luò),并展示如何利用深度學(xué)習(xí)從圖像中提取信息。 第3章從零開始針對圖像分類問題構(gòu)建一個簡單的CNN,并闡明如何調(diào)整參數(shù)、優(yōu)化訓(xùn)練時(shí)間以及CNN的性能,以分別提高效率和準(zhǔn)確率。 第4章介紹幾種經(jīng)典的(在競賽中勝出的)CNN架構(gòu)的優(yōu)勢和運(yùn)作機(jī)制,以及它們之間的差異和如何使用這些架構(gòu)。 第5章講授如何使用預(yù)先訓(xùn)練好的網(wǎng)絡(luò),并使其適用于新的且不同的數(shù)據(jù)集。在實(shí)際應(yīng)用中也有一種自定義分類問題,它使用的技術(shù)稱為轉(zhuǎn)移學(xué)習(xí)。 第6章介紹一種稱為自編碼器的無監(jiān)督學(xué)習(xí)技術(shù),同時(shí)介紹了CNN自編碼器的不同應(yīng)用,比如圖像壓縮。 第7章講授目標(biāo)檢測、實(shí)例分割和圖像分類的區(qū)別。然后介紹多種使用CNN進(jìn)行目標(biāo)檢測和實(shí)例分割的技術(shù)。 第8章探究生成式CNN網(wǎng)絡(luò),然后將其與我們學(xué)習(xí)得到的有識別力的CNN網(wǎng)絡(luò)相結(jié)合,用CNN/GAN創(chuàng)造新的圖像。 第9章講授深度學(xué)習(xí)中注意力背后的思想,并學(xué)習(xí)如何使用基于注意力的模型來實(shí)現(xiàn)一些高級解決方案(圖像捕捉和RAM)。我們還將了解不同類型的注意力以及強(qiáng)化學(xué)習(xí)在硬注意力機(jī)制中的作用。

作者簡介

  Mohit Sewak是IBM的高級認(rèn)知數(shù)據(jù)科學(xué)家,也是比爾拉技術(shù)與科學(xué)學(xué)院的人工智能和計(jì)算機(jī)科學(xué)博士。他在人工智能、深度學(xué)習(xí)和機(jī)器學(xué)習(xí)方面擁有多項(xiàng)專利和著作。他曾是一些非常成功的人工智能/機(jī)器學(xué)習(xí)軟件和行業(yè)解決方案的首席數(shù)據(jù)科學(xué)家,并在早期就參與了沃森認(rèn)知商業(yè)產(chǎn)品線的解決方案研究。他在TensorFlow、Torch、Caffe、Theano、Keras、Watson等架構(gòu)的設(shè)計(jì)和解決方案方面有14年的豐富經(jīng)驗(yàn)。 Md. Rezaul Karim是德國Fraunhofer FIT的研究科學(xué)家。他也是德國亞琛工業(yè)大學(xué)的博士研究生。在加入FIT之前,他曾在愛爾蘭的Insight數(shù)據(jù)分析中心擔(dān)任研究員。他也曾是韓國三星電子的首席工程師。 他在C++、Java、R、Scala和Python方面有9年的研發(fā)經(jīng)驗(yàn),也在生物信息學(xué)、大數(shù)據(jù)和深度學(xué)習(xí)方面發(fā)表過研究論文。此外在Spark、Zeppelin、Hadoop、Keras、Scikit-Learn、TensorFlow、Deeplearning4j、MXNet、H2O等方面都有實(shí)際的工作經(jīng)驗(yàn)。 Pradeep Pujari是沃爾瑪實(shí)驗(yàn)室的機(jī)器學(xué)習(xí)工程師,也是ACM的杰出成員。他的核心專業(yè)領(lǐng)域是信息檢索、機(jī)器學(xué)習(xí)和自然語言處理。在空閑的時(shí)候,他喜歡研究人工智能技術(shù)、閱讀和輔導(dǎo)。

圖書目錄

前言
關(guān)于作者
關(guān)于審閱者
第1章 深度神經(jīng)網(wǎng)絡(luò)概述 1
1.1 創(chuàng)建神經(jīng)網(wǎng)絡(luò)塊 1
1.2 TensorFlow介紹 3
1.3 MNIST數(shù)據(jù)集介紹 10
1.4 Keras深度學(xué)習(xí)庫概述 14
1.5 基于Keras和MNIST的手寫數(shù)字識別 15
1.5.1 訓(xùn)練和測試數(shù)據(jù)的檢索 17
1.5.2 訓(xùn)練數(shù)據(jù)的可視化 18
1.5.3 創(chuàng)建神經(jīng)網(wǎng)絡(luò) 18
1.5.4 訓(xùn)練神經(jīng)網(wǎng)絡(luò) 19
1.5.5 測試 19
1.6 理解反向傳播 20
1.7 本章小結(jié) 23
第2章 卷積神經(jīng)網(wǎng)絡(luò)介紹 25
2.1 CNN歷史 25
2.2 卷積神經(jīng)網(wǎng)絡(luò) 27
2.2.1 計(jì)算機(jī)如何解釋圖像 28
2.2.2 編碼實(shí)現(xiàn)圖像可視化 29
2.2.3 dropout 31
2.2.4 輸入層 31
2.2.5 卷積層 32
2.2.6 池化層 34
2.3 實(shí)踐示例:圖像分類 35
2.4 本章小結(jié) 39
第3章 構(gòu)建CNN并進(jìn)行性能優(yōu)化 41
3.1 CNN架構(gòu)和DNN的缺點(diǎn) 41
3.1.1 卷積操作 44
3.1.2 池化、步長和填充操作 46
3.2 TensorFlow中的卷積和池化操作 48
3.2.1 在TensorFlow中應(yīng)用池化操作 49
3.2.2 TensorFlow中的卷積操作 51
3.3 訓(xùn)練CNN 53
3.3.1 初始化權(quán)重和偏置 53
3.3.2 正則化 54
3.3.3 激活函數(shù) 54
3.4 創(chuàng)建、訓(xùn)練和評估第一個CNN 56
3.5 模型性能優(yōu)化 73
3.5.1 隱含層數(shù)量 73
3.5.2 每個隱含層的神經(jīng)元個數(shù) 74
3.5.3 批標(biāo)準(zhǔn)化 74
3.5.4 高級正則化及過擬合的避免 76
3.5.5 運(yùn)用哪個優(yōu)化器 79
3.5.6 內(nèi)存調(diào)優(yōu) 79
3.5.7 層的位置調(diào)優(yōu) 80
3.5.8 綜合所有操作創(chuàng)建第二個CNN 80
3.5.9 數(shù)據(jù)集描述和預(yù)處理 80
3.5.10 創(chuàng)建CNN模型 85
3.5.11 訓(xùn)練和評估網(wǎng)絡(luò) 87
3.6 本章小結(jié) 90
第4章 經(jīng)典的CNN模型架構(gòu) 91
4.1 ImageNet介紹 91
4.2 LeNet 92
4.3 AlexNet架構(gòu) 93
4.4 VGGNet架構(gòu) 95
4.5 GoogLeNet架構(gòu) 97
4.5.1 架構(gòu)洞察 98
4.5.2 inception模塊 99
4.6 ResNet架構(gòu) 99
4.7 本章小結(jié) 101
第5章 轉(zhuǎn)移學(xué)習(xí) 103
5.1 特征提取方法 103
5.1.1 目標(biāo)數(shù)據(jù)集較小且與原始訓(xùn)練集相似 104
5.1.2 目標(biāo)數(shù)據(jù)集較小且與原始訓(xùn)練集不同 105
5.1.3 目標(biāo)數(shù)據(jù)集很大且與原始訓(xùn)練集相似 107
5.1.4 目標(biāo)數(shù)據(jù)集很大且與原始訓(xùn)練集不同 107
5.2 轉(zhuǎn)移學(xué)習(xí)示例 108
5.3 多任務(wù)學(xué)習(xí) 111
5.4 本章小結(jié) 111
第6章 CNN自編碼器 113
6.1 自編碼器介紹 113
6.2 卷積自編碼器 114
6.3 應(yīng)用 115
6.4 本章小結(jié) 116
第7章 CNN目標(biāo)檢測與實(shí)例分割 119
7.1 目標(biāo)檢測與圖像分類的區(qū)別 120
7.2 傳統(tǒng)的、非CNN的目標(biāo)檢測方法 124
7.3 R-CNN:CNN特征區(qū) 128
7.4 Fast R-CNN:基于區(qū)域快速識別的CNN 130
7.5 Faster R-CNN:基于快速區(qū)域生成網(wǎng)絡(luò)的CNN 132
7.6 Mask R-CNN:CNN實(shí)例分割 135
7.7 實(shí)例分割的代碼實(shí)現(xiàn) 137
7.7.1 創(chuàng)建環(huán)境 138
7.7.2 準(zhǔn)備COCO數(shù)據(jù)集文件夾結(jié)構(gòu) 139
7.7.3 在COCO數(shù)據(jù)集上運(yùn)行預(yù)訓(xùn)練模型 139
7.8 參考文獻(xiàn) 139
7.9 本章小結(jié) 141
第8章 GAN:使用CNN生成新圖像 143
8.1 Pix2pix:基于GAN的圖像翻譯 144
8.1.1 CycleGAN 144
8.1.2 訓(xùn)練GAN模型 145
8.2 GAN的代碼示例 146
8.2.1 計(jì)算損失 149
8.2.2 半監(jiān)督學(xué)習(xí)和GAN 151
8.3 特征匹配 152
8.3.1 基于半監(jiān)督分類的GAN示例 152
8.3.2 深度卷積GAN 158
8.4 本章小結(jié) 159
第9章 CNN和視覺模型的注意力機(jī)制 161
9.1 圖像描述中的注意力機(jī)制 164
9.2 注意力類型 168
9.2.1 硬注意力 168
9.2.2 軟注意力 169
9.3 運(yùn)用注意力改善視覺模型 170
9.3.1 視覺CNN模型次優(yōu)性能的原因 171
9.3.2 循環(huán)視覺注意力模型 174
9.4 參考文獻(xiàn) 180
9.5 本章小結(jié) 181

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) www.talentonion.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號