注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)軟件工程及軟件方法學(xué)深度學(xué)習(xí):理論、方法與PyTorch實(shí)踐

深度學(xué)習(xí):理論、方法與PyTorch實(shí)踐

深度學(xué)習(xí):理論、方法與PyTorch實(shí)踐

定 價(jià):¥109.00

作 者: 翟中華,孟翔宇 著
出版社: 清華大學(xué)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買(mǎi)這本書(shū)可以去


ISBN: 9787302568483 出版時(shí)間: 2021-08-01 包裝:
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 431 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  本書(shū)深入淺出地講解深度學(xué)習(xí),對(duì)復(fù)雜的概念深挖其本質(zhì),讓其簡(jiǎn)單化;對(duì)簡(jiǎn)單的概念深挖其聯(lián)系,使其豐富化。從理論知識(shí)到實(shí)戰(zhàn)項(xiàng)目,內(nèi)容翔實(shí)。本書(shū)分為兩篇,基礎(chǔ)篇主要講解深度學(xué)習(xí)的理論知識(shí),實(shí)戰(zhàn)篇是代碼實(shí)踐及應(yīng)用?;A(chǔ)篇(第1~13章)包括由傳統(tǒng)機(jī)器學(xué)習(xí)到深度學(xué)習(xí)的過(guò)渡、圖像分類(lèi)的數(shù)據(jù)驅(qū)動(dòng)方法、Softmax損失函數(shù)、優(yōu)化方法與梯度、卷積神經(jīng)網(wǎng)絡(luò)的各種概念、卷積過(guò)程、卷積神經(jīng)網(wǎng)絡(luò)各種訓(xùn)練技巧、梯度反傳、各種卷積網(wǎng)絡(luò)架構(gòu)、遞歸神經(jīng)網(wǎng)絡(luò)和序列模型、基于深度學(xué)習(xí)的語(yǔ)言模型、生成模型、生成對(duì)抗網(wǎng)絡(luò)等內(nèi)容;實(shí)戰(zhàn)篇(第14~19章)包括應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像分類(lèi)、各種網(wǎng)絡(luò)架構(gòu)、網(wǎng)絡(luò)各層可視化、貓狗圖像識(shí)別、文本分類(lèi)、GAN圖像生成等。本書(shū)適合人工智能專業(yè)的本科生、研究生,想轉(zhuǎn)型人工智能的IT從業(yè)者,以及想從零開(kāi)始了解并掌握深度學(xué)習(xí)的讀者閱讀。

作者簡(jiǎn)介

  翟中華,清華大學(xué)碩士畢業(yè),AI火箭營(yíng)創(chuàng)始人、CEO,并擔(dān)任首席講師。曾在多家互聯(lián)網(wǎng)公司擔(dān)任CTO。在機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理等人工智能領(lǐng)域有著扎實(shí)的理論基礎(chǔ)和豐富的應(yīng)用實(shí)踐經(jīng)驗(yàn)。主講的“機(jī)器學(xué)習(xí)難點(diǎn)問(wèn)題秒懂課堂”“深度學(xué)習(xí)入門(mén)系列講解”“基于深度學(xué)習(xí)的目標(biāo)檢測(cè)”等課程累計(jì)學(xué)員50多萬(wàn)人次,講課風(fēng)格抽絲剝繭、深入淺出、以簡(jiǎn)馭繁,能夠把復(fù)雜原理簡(jiǎn)單化,把簡(jiǎn)單原理內(nèi)涵化,深受廣大學(xué)員好評(píng)。

圖書(shū)目錄

基礎(chǔ)篇
第1章 什么是深度學(xué)習(xí)
1.1 通過(guò)應(yīng)用示例直觀理解深度學(xué)習(xí)
1.2 3個(gè)視角解釋深度學(xué)習(xí)
1.2.1 分層組合性
1.2.2 端到端學(xué)習(xí)
1.2.3 分布式表示
1.3 深度學(xué)習(xí)面臨的挑戰(zhàn)
1.3.1 深度學(xué)習(xí)的工作機(jī)制
1.3.2 非凸的問(wèn)題
1.3.3 可解釋性的問(wèn)題
第2章 圖像識(shí)別及K-NN算法
2.1 圖像分類(lèi)
2.2 誤差分解和K-NN算法
2.2.1 誤差分解
2.2.2 K-NN算法運(yùn)行過(guò)程
第3章 線性分類(lèi)器
3.1 線性分類(lèi)器用于圖像分類(lèi)的3個(gè)觀點(diǎn)
3.1.1 線性分類(lèi)的代數(shù)觀點(diǎn)
3.1.2 線性分類(lèi)的視覺(jué)觀點(diǎn)
3.1.3 線性分類(lèi)的幾何觀點(diǎn)
3.2 合頁(yè)損失函數(shù)原理推導(dǎo)及圖像分類(lèi)舉例
3.2.1 合頁(yè)損失函數(shù)的概念
3.2.2 多分類(lèi)合頁(yè)損失函數(shù)的推導(dǎo)
3.3 Softmax損失函數(shù)與多分類(lèi)SVM損失函數(shù)的比較
3.3.1 Softmax分類(lèi)與損失函數(shù)
3.3.2 Softmax損失函數(shù)與合頁(yè)損失函數(shù)的比較
第4章 優(yōu)化與梯度
4.1 梯度下降法工作原理及3種普通梯度下降法
4.1.1 梯度下降的概念
4.1.2 梯度下降法求解目標(biāo)函數(shù)
4.1.3 學(xué)習(xí)率的重要性
4.1.4 3種梯度下降法
4.2 動(dòng)量SGD和Nesterov加速梯度法
4.2.1 SGD存在的問(wèn)題
4.2.2 動(dòng)量法
4.2.3 Nesterov加速梯度法
4.3 自適應(yīng)學(xué)習(xí)速率優(yōu)化方法
4.3.1 指數(shù)加權(quán)平均值處理數(shù)字序列
4.3.2 自適應(yīng)學(xué)習(xí)速率AdaGrad方法
4.3.3 自適應(yīng)學(xué)習(xí)速率RMSProp方法
4.3.4 自適應(yīng)學(xué)習(xí)速率Adadelta方法
4.4 最強(qiáng)優(yōu)化方法Adam
4.4.1 為什么Adam性能如此卓越
4.4.2 偏差矯正
4.4.3 如何矯正偏差
第5章 卷積神經(jīng)網(wǎng)絡(luò)
5.1 卷積核
5.1.1 卷積核簡(jiǎn)介
5.1.2 卷積核的作用
5.2 卷積神經(jīng)網(wǎng)絡(luò)中步長(zhǎng)、填充和通道的概念
5.2.1 步長(zhǎng)
5.2.2 填充
5.2.3 通道
5.3 快速推導(dǎo)卷積層特征圖尺寸計(jì)算公式
5.3.1 計(jì)算過(guò)程直觀展示
5.3.2 計(jì)算過(guò)程總結(jié)
5.4 極簡(jiǎn)方法實(shí)現(xiàn)卷積層的誤差反傳
5.4.1 誤差反傳舉例說(shuō)明
5.4.2 完全卷積過(guò)程簡(jiǎn)介
5.4.3 把卷積過(guò)程寫(xiě)成神經(jīng)網(wǎng)絡(luò)形式
5.4.4 應(yīng)用計(jì)算圖的反向模式微分
5.5 極池化層的本質(zhì)思想及其過(guò)程
5.5.1 池化層的分類(lèi)
5.5.2 池化后圖像尺寸
第6章 卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練技巧
6.1 ReLU激活函數(shù)的優(yōu)勢(shì)
6.1.1 為什么需要激活函數(shù)
6.1.2 主流激活函數(shù)介紹
6.2 內(nèi)部協(xié)變量偏移
6.3 批歸一化
6.3.1 為什么需要批歸一化
6.3.2 批歸一化的工作原理
6.3.3 批歸一化的優(yōu)勢(shì)
6.4 Dropout正則化及其集成方法思想
6.4.1 特征共適應(yīng)性
6.4.2 Dropout正則化思想
6.4.3 Dropout集成思想
6.4.4 預(yù)測(cè)時(shí)需要恢復(fù)Dropout的隨機(jī)性
第7章 卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)
7.1 掀起深度學(xué)習(xí)風(fēng)暴的AlexNet網(wǎng)絡(luò)架構(gòu)
7.1.1 卷積神經(jīng)網(wǎng)絡(luò)的開(kāi)端LeNet
7.1.2 AlexNet架構(gòu)
7.2 神經(jīng)網(wǎng)絡(luò)感受野及其計(jì)算
7.2.1 生物學(xué)中的感受野
7.2.2 CNN中的感受野
7.3 VGGNet網(wǎng)絡(luò)結(jié)構(gòu)相比較AlexNet的優(yōu)勢(shì)
7.3.1 VGGNet簡(jiǎn)介
7.3.2 VGGNet與AlexNet網(wǎng)絡(luò)結(jié)構(gòu)對(duì)比
7.4 GoogLeNet1×1卷積核的深刻意義及其作用
7.4.1 深度神經(jīng)網(wǎng)絡(luò)的缺陷
7.4.2 多通道卷積中特征圖映射太多的問(wèn)題
7.4.3 1×1卷積核卷積過(guò)程
7.5 GoogLeNet初始模塊設(shè)計(jì)指導(dǎo)思想
7.5.1 赫布學(xué)習(xí)規(guī)則
7.5.2 人工神經(jīng)網(wǎng)絡(luò)中的赫布學(xué)習(xí)規(guī)則
7.6 透徹理解GoogLeNet全景架構(gòu)
7.7 ResNet關(guān)鍵結(jié)構(gòu)恒等映射背后的思想及原理
7.8 全面理解ResNet全景架構(gòu)
第8章 循環(huán)神經(jīng)網(wǎng)絡(luò)
8.1 為什么要用遞歸神經(jīng)網(wǎng)絡(luò)
8.1.1 為什么需要遞歸神經(jīng)網(wǎng)絡(luò)
8.1.2 RNN結(jié)構(gòu)以及應(yīng)用
8.2 RNN計(jì)算圖
8.3 RNN前向與反向傳播
8.3.1 前饋深度
8.3.2 循環(huán)深度
8.3.3 通過(guò)時(shí)間反向傳播
8.3.4 兩個(gè)和的反向傳播
8.3.5 梯度消失和梯度爆炸
8.4 長(zhǎng)短期記憶(LSTM)及其變種的原理
8.4.1 LSTM網(wǎng)絡(luò)架構(gòu)
8.4.2 LSTM變體一
8.4.3 LSTM變體二
8.4.4 LSTM變體三
第9章 基于深度學(xué)習(xí)的語(yǔ)言模型
9.1 詞的各種向量表示
9.2 通過(guò)詞向量度量詞的相似性
9.3 潛在語(yǔ)義分析LSA
9.3.1 潛在語(yǔ)義分析的過(guò)程
9.3.2 潛在語(yǔ)義分析的SVD分解
9.4 Word2Vec詞嵌入原理
9.4.1 Word2Vec的指導(dǎo)思想
9.4.2 skip-gram算法的框架
9.4.3 skip-gram算法的輸入訓(xùn)練集
9.4.4 skip-gra

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) hotzeplotz.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)