注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)人工智能模式識(shí)別和機(jī)器學(xué)習(xí)基礎(chǔ)

模式識(shí)別和機(jī)器學(xué)習(xí)基礎(chǔ)

模式識(shí)別和機(jī)器學(xué)習(xí)基礎(chǔ)

定 價(jià):¥119.00

作 者: 烏利塞斯·布拉加-內(nèi)托
出版社: 機(jī)械工業(yè)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買(mǎi)這本書(shū)可以去


ISBN: 9787111735267 出版時(shí)間: 2023-10-01 包裝: 平裝-膠訂
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  模式識(shí)別和機(jī)器學(xué)習(xí)是人工智能應(yīng)用的基礎(chǔ)。本書(shū)將模式識(shí)別任務(wù)按照監(jiān)督學(xué)習(xí)和無(wú)監(jiān)督學(xué)習(xí)兩種方式進(jìn)行組織。第1章討論模式識(shí)別和機(jī)器學(xué)習(xí)的內(nèi)在關(guān)系,介紹了兩者的基礎(chǔ)知識(shí)和模式識(shí)別的設(shè)計(jì)過(guò)程。第2章和第3章介紹了zui優(yōu)化的和常規(guī)的基于實(shí)例的分類(lèi)問(wèn)題。第4~6章檢驗(yàn)了參數(shù)的、非參數(shù)的和函數(shù)逼近的分類(lèi)規(guī)則。之后在第7章和第8章就分類(lèi)的誤差估計(jì)和模型選擇對(duì)分類(lèi)模型的性能進(jìn)行討論。第9章介紹了能夠提高分類(lèi)模型的性能并減少存儲(chǔ)空間的降維技術(shù)。第10章和第11章分別介紹了聚類(lèi)分析技術(shù)和回歸模型。本書(shū)適合相關(guān)專(zhuān)業(yè)高年級(jí)本科生和研究生,以及該領(lǐng)域的從業(yè)人員閱讀。

作者簡(jiǎn)介

  [美]烏利塞斯·布拉加-內(nèi)托

圖書(shū)目錄

目錄

Fundamentals of Pattern Recognition and Machine Learning

譯者序
前言
第1章概述111模式識(shí)別與機(jī)器學(xué)習(xí)1
12數(shù)學(xué)基礎(chǔ)設(shè)置1
13預(yù)測(cè)2
14預(yù)測(cè)誤差2
15監(jiān)督學(xué)習(xí)與無(wú)監(jiān)督學(xué)習(xí)3
16復(fù)雜性權(quán)衡3
17設(shè)計(jì)周期4
18應(yīng)用實(shí)例5
181生物信息學(xué)5
182材料信息學(xué)7
19文獻(xiàn)注釋9
第2章最優(yōu)分類(lèi)1021無(wú)特征分類(lèi)10
22有特征分類(lèi)10
23貝葉斯分類(lèi)器13
24貝葉斯誤差16
25高斯模型19
251同方差情況20
252異方差情況22
26其他主題22
261極小極大分類(lèi)22
262F誤差24
263貝葉斯決策理論26
*264分類(lèi)問(wèn)題的嚴(yán)格表達(dá)27
27文獻(xiàn)注釋28
28練習(xí)29
29Python作業(yè)33
第3章基于實(shí)例的分類(lèi)3631分類(lèi)規(guī)則36
32分類(lèi)錯(cuò)誤率38
*33一致性38
34沒(méi)有免費(fèi)午餐定理41
35其他主題42
351集成分類(lèi)42
352混合抽樣與獨(dú)立抽樣43
36文獻(xiàn)注釋44
37練習(xí)44
38Python作業(yè)45
第4章參數(shù)分類(lèi)4741參數(shù)替換規(guī)則47
42高斯判別分析48
421線性判別分析48
422二次判別分析51
43邏輯斯諦分類(lèi)53
44其他主題54
441正則化判別分析54
*442參數(shù)規(guī)則的一致性55
443貝葉斯參數(shù)規(guī)則57
45文獻(xiàn)注釋59
46練習(xí)60
47Python作業(yè)62
第5章非參數(shù)分類(lèi)6451非參數(shù)替換規(guī)則64
52直方圖分類(lèi)65
53最近鄰分類(lèi)66
54核分類(lèi)68
55CoverHart定理70
*56Stone定理73
57文獻(xiàn)注釋74
58練習(xí)75
59Python作業(yè)76
第6章函數(shù)逼近分類(lèi)7861支持向量機(jī)78
611可分?jǐn)?shù)據(jù)的線性支持
向量機(jī)78
612一般線性支持向量機(jī)80
613非線性支持向量機(jī)82
62神經(jīng)網(wǎng)絡(luò)86
621反向傳播訓(xùn)練89
622卷積神經(jīng)網(wǎng)絡(luò)92
*623神經(jīng)網(wǎng)絡(luò)的普遍逼近
性質(zhì)94
624普遍一致性定理96
63決策樹(shù)97
64有序分類(lèi)器100
65文獻(xiàn)注釋101
66練習(xí)102
67Python作業(yè)104
第7章分類(lèi)誤差估計(jì)10871誤差估計(jì)規(guī)則108
72誤差估計(jì)性能109
721偏差分布109
722偏差、方差、均方根和
尾概率110
*723一致性111
73測(cè)試集誤差估計(jì)112
74再代入誤差估計(jì)113
75交叉驗(yàn)證114
76自助方法116
77增強(qiáng)誤差估計(jì)118
78其他主題121
781凸誤差估計(jì)器121
782平滑誤差估計(jì)器123
783貝葉斯誤差估計(jì)123
79文獻(xiàn)注釋126
710練習(xí)127
711Python作業(yè)129
第8章分類(lèi)模型選擇13181分類(lèi)復(fù)雜性131
82VapnikChervonenkis理論134
*821有限模型選擇134
822打散系數(shù)與VC維度135
823幾種分類(lèi)規(guī)則中的VC
參數(shù)136
824VapnikChervonenkis
定理139
825沒(méi)有免費(fèi)午餐定理139
83模型選擇方法140
831驗(yàn)證誤差最小化140
832訓(xùn)練集誤差最小化141
833結(jié)構(gòu)性風(fēng)險(xiǎn)最小化141
84文獻(xiàn)注釋142
85練習(xí)143
第9章降維14591面向分類(lèi)任務(wù)的特征提取145
92特征選擇146
921窮舉搜索146
922單變量貪婪搜索147
923多變量貪婪搜索149
924特征選擇與分類(lèi)復(fù)雜性150
925特征選擇與誤差估計(jì)150
93主成分分析152
94多維縮放155
95因子分析156
96文獻(xiàn)注釋158
97練習(xí)159
98Python作業(yè)160
第10章聚類(lèi)162101KMeans算法162
102高斯混合模型165
1021期望最大化方法166
1022與KMeans的關(guān)系170
103層次聚類(lèi)171
104自組織映射173
105文獻(xiàn)注釋174
106練習(xí)175
107Python作業(yè)176
第11章回歸178111最優(yōu)回歸178
112

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) hotzeplotz.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)