注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)軟件與程序設(shè)計(jì)實(shí)用卷積神經(jīng)網(wǎng)絡(luò):運(yùn)用Python實(shí)現(xiàn)高級(jí)深度學(xué)習(xí)模型

實(shí)用卷積神經(jīng)網(wǎng)絡(luò):運(yùn)用Python實(shí)現(xiàn)高級(jí)深度學(xué)習(xí)模型

實(shí)用卷積神經(jīng)網(wǎng)絡(luò):運(yùn)用Python實(shí)現(xiàn)高級(jí)深度學(xué)習(xí)模型

定 價(jià):¥69.00

作 者: [印度] 莫希特·賽瓦克(Mohit Sewak) 著
出版社: 機(jī)械工業(yè)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買(mǎi)這本書(shū)可以去


ISBN: 9787111621966 出版時(shí)間: 2019-05-01 包裝: 平裝
開(kāi)本: 16 頁(yè)數(shù): 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  第1章對(duì)深度神經(jīng)網(wǎng)絡(luò)的科學(xué)原理和實(shí)現(xiàn)這種網(wǎng)絡(luò)的不同框架以及框架背后的數(shù)學(xué)機(jī)制提供一個(gè)快速回顧。 第2章向讀者介紹卷積神經(jīng)網(wǎng)絡(luò),并展示如何利用深度學(xué)習(xí)從圖像中提取信息。 第3章從零開(kāi)始針對(duì)圖像分類(lèi)問(wèn)題構(gòu)建一個(gè)簡(jiǎn)單的CNN,并闡明如何調(diào)整參數(shù)、優(yōu)化訓(xùn)練時(shí)間以及CNN的性能,以分別提高效率和準(zhǔn)確率。 第4章介紹幾種經(jīng)典的(在競(jìng)賽中勝出的)CNN架構(gòu)的優(yōu)勢(shì)和運(yùn)作機(jī)制,以及它們之間的差異和如何使用這些架構(gòu)。 第5章講授如何使用預(yù)先訓(xùn)練好的網(wǎng)絡(luò),并使其適用于新的且不同的數(shù)據(jù)集。在實(shí)際應(yīng)用中也有一種自定義分類(lèi)問(wèn)題,它使用的技術(shù)稱(chēng)為轉(zhuǎn)移學(xué)習(xí)。 第6章介紹一種稱(chēng)為自編碼器的無(wú)監(jiān)督學(xué)習(xí)技術(shù),同時(shí)介紹了CNN自編碼器的不同應(yīng)用,比如圖像壓縮。 第7章講授目標(biāo)檢測(cè)、實(shí)例分割和圖像分類(lèi)的區(qū)別。然后介紹多種使用CNN進(jìn)行目標(biāo)檢測(cè)和實(shí)例分割的技術(shù)。 第8章探究生成式CNN網(wǎng)絡(luò),然后將其與我們學(xué)習(xí)得到的有識(shí)別力的CNN網(wǎng)絡(luò)相結(jié)合,用CNN/GAN創(chuàng)造新的圖像。 第9章講授深度學(xué)習(xí)中注意力背后的思想,并學(xué)習(xí)如何使用基于注意力的模型來(lái)實(shí)現(xiàn)一些高級(jí)解決方案(圖像捕捉和RAM)。我們還將了解不同類(lèi)型的注意力以及強(qiáng)化學(xué)習(xí)在硬注意力機(jī)制中的作用。

作者簡(jiǎn)介

  Mohit Sewak是IBM的高級(jí)認(rèn)知數(shù)據(jù)科學(xué)家,也是比爾拉技術(shù)與科學(xué)學(xué)院的人工智能和計(jì)算機(jī)科學(xué)博士。他在人工智能、深度學(xué)習(xí)和機(jī)器學(xué)習(xí)方面擁有多項(xiàng)專(zhuān)利和著作。他曾是一些非常成功的人工智能/機(jī)器學(xué)習(xí)軟件和行業(yè)解決方案的首席數(shù)據(jù)科學(xué)家,并在早期就參與了沃森認(rèn)知商業(yè)產(chǎn)品線的解決方案研究。他在TensorFlow、Torch、Caffe、Theano、Keras、Watson等架構(gòu)的設(shè)計(jì)和解決方案方面有14年的豐富經(jīng)驗(yàn)。 Md. Rezaul Karim是德國(guó)Fraunhofer FIT的研究科學(xué)家。他也是德國(guó)亞琛工業(yè)大學(xué)的博士研究生。在加入FIT之前,他曾在愛(ài)爾蘭的Insight數(shù)據(jù)分析中心擔(dān)任研究員。他也曾是韓國(guó)三星電子的首席工程師。 他在C++、Java、R、Scala和Python方面有9年的研發(fā)經(jīng)驗(yàn),也在生物信息學(xué)、大數(shù)據(jù)和深度學(xué)習(xí)方面發(fā)表過(guò)研究論文。此外在Spark、Zeppelin、Hadoop、Keras、Scikit-Learn、TensorFlow、Deeplearning4j、MXNet、H2O等方面都有實(shí)際的工作經(jīng)驗(yàn)。 Pradeep Pujari是沃爾瑪實(shí)驗(yàn)室的機(jī)器學(xué)習(xí)工程師,也是ACM的杰出成員。他的核心專(zhuān)業(yè)領(lǐng)域是信息檢索、機(jī)器學(xué)習(xí)和自然語(yǔ)言處理。在空閑的時(shí)候,他喜歡研究人工智能技術(shù)、閱讀和輔導(dǎo)。

圖書(shū)目錄

前言
關(guān)于作者
關(guān)于審閱者
第1章 深度神經(jīng)網(wǎng)絡(luò)概述 1
1.1 創(chuàng)建神經(jīng)網(wǎng)絡(luò)塊 1
1.2 TensorFlow介紹 3
1.3 MNIST數(shù)據(jù)集介紹 10
1.4 Keras深度學(xué)習(xí)庫(kù)概述 14
1.5 基于Keras和MNIST的手寫(xiě)數(shù)字識(shí)別 15
1.5.1 訓(xùn)練和測(cè)試數(shù)據(jù)的檢索 17
1.5.2 訓(xùn)練數(shù)據(jù)的可視化 18
1.5.3 創(chuàng)建神經(jīng)網(wǎng)絡(luò) 18
1.5.4 訓(xùn)練神經(jīng)網(wǎng)絡(luò) 19
1.5.5 測(cè)試 19
1.6 理解反向傳播 20
1.7 本章小結(jié) 23
第2章 卷積神經(jīng)網(wǎng)絡(luò)介紹 25
2.1 CNN歷史 25
2.2 卷積神經(jīng)網(wǎng)絡(luò) 27
2.2.1 計(jì)算機(jī)如何解釋圖像 28
2.2.2 編碼實(shí)現(xiàn)圖像可視化 29
2.2.3 dropout 31
2.2.4 輸入層 31
2.2.5 卷積層 32
2.2.6 池化層 34
2.3 實(shí)踐示例:圖像分類(lèi) 35
2.4 本章小結(jié) 39
第3章 構(gòu)建CNN并進(jìn)行性能優(yōu)化 41
3.1 CNN架構(gòu)和DNN的缺點(diǎn) 41
3.1.1 卷積操作 44
3.1.2 池化、步長(zhǎng)和填充操作 46
3.2 TensorFlow中的卷積和池化操作 48
3.2.1 在TensorFlow中應(yīng)用池化操作 49
3.2.2 TensorFlow中的卷積操作 51
3.3 訓(xùn)練CNN 53
3.3.1 初始化權(quán)重和偏置 53
3.3.2 正則化 54
3.3.3 激活函數(shù) 54
3.4 創(chuàng)建、訓(xùn)練和評(píng)估第一個(gè)CNN 56
3.5 模型性能優(yōu)化 73
3.5.1 隱含層數(shù)量 73
3.5.2 每個(gè)隱含層的神經(jīng)元個(gè)數(shù) 74
3.5.3 批標(biāo)準(zhǔn)化 74
3.5.4 高級(jí)正則化及過(guò)擬合的避免 76
3.5.5 運(yùn)用哪個(gè)優(yōu)化器 79
3.5.6 內(nèi)存調(diào)優(yōu) 79
3.5.7 層的位置調(diào)優(yōu) 80
3.5.8 綜合所有操作創(chuàng)建第二個(gè)CNN 80
3.5.9 數(shù)據(jù)集描述和預(yù)處理 80
3.5.10 創(chuàng)建CNN模型 85
3.5.11 訓(xùn)練和評(píng)估網(wǎng)絡(luò) 87
3.6 本章小結(jié) 90
第4章 經(jīng)典的CNN模型架構(gòu) 91
4.1 ImageNet介紹 91
4.2 LeNet 92
4.3 AlexNet架構(gòu) 93
4.4 VGGNet架構(gòu) 95
4.5 GoogLeNet架構(gòu) 97
4.5.1 架構(gòu)洞察 98
4.5.2 inception模塊 99
4.6 ResNet架構(gòu) 99
4.7 本章小結(jié) 101
第5章 轉(zhuǎn)移學(xué)習(xí) 103
5.1 特征提取方法 103
5.1.1 目標(biāo)數(shù)據(jù)集較小且與原始訓(xùn)練集相似 104
5.1.2 目標(biāo)數(shù)據(jù)集較小且與原始訓(xùn)練集不同 105
5.1.3 目標(biāo)數(shù)據(jù)集很大且與原始訓(xùn)練集相似 107
5.1.4 目標(biāo)數(shù)據(jù)集很大且與原始訓(xùn)練集不同 107
5.2 轉(zhuǎn)移學(xué)習(xí)示例 108
5.3 多任務(wù)學(xué)習(xí) 111
5.4 本章小結(jié) 111
第6章 CNN自編碼器 113
6.1 自編碼器介紹 113
6.2 卷積自編碼器 114
6.3 應(yīng)用 115
6.4 本章小結(jié) 116
第7章 CNN目標(biāo)檢測(cè)與實(shí)例分割 119
7.1 目標(biāo)檢測(cè)與圖像分類(lèi)的區(qū)別 120
7.2 傳統(tǒng)的、非CNN的目標(biāo)檢測(cè)方法 124
7.3 R-CNN:CNN特征區(qū) 128
7.4 Fast R-CNN:基于區(qū)域快速識(shí)別的CNN 130
7.5 Faster R-CNN:基于快速區(qū)域生成網(wǎng)絡(luò)的CNN 132
7.6 Mask R-CNN:CNN實(shí)例分割 135
7.7 實(shí)例分割的代碼實(shí)現(xiàn) 137
7.7.1 創(chuàng)建環(huán)境 138
7.7.2 準(zhǔn)備COCO數(shù)據(jù)集文件夾結(jié)構(gòu) 139
7.7.3 在COCO數(shù)據(jù)集上運(yùn)行預(yù)訓(xùn)練模型 139
7.8 參考文獻(xiàn) 139
7.9 本章小結(jié) 141
第8章 GAN:使用CNN生成新圖像 143
8.1 Pix2pix:基于GAN的圖像翻譯 144
8.1.1 CycleGAN 144
8.1.2 訓(xùn)練GAN模型 145
8.2 GAN的代碼示例 146
8.2.1 計(jì)算損失 149
8.2.2 半監(jiān)督學(xué)習(xí)和GAN 151
8.3 特征匹配 152
8.3.1 基于半監(jiān)督分類(lèi)的GAN示例 152
8.3.2 深度卷積GAN 158
8.4 本章小結(jié) 159
第9章 CNN和視覺(jué)模型的注意力機(jī)制 161
9.1 圖像描述中的注意力機(jī)制 164
9.2 注意力類(lèi)型 168
9.2.1 硬注意力 168
9.2.2 軟注意力 169
9.3 運(yùn)用注意力改善視覺(jué)模型 170
9.3.1 視覺(jué)CNN模型次優(yōu)性能的原因 171
9.3.2 循環(huán)視覺(jué)注意力模型 174
9.4 參考文獻(xiàn) 180
9.5 本章小結(jié) 181

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) www.talentonion.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)