注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計算機/網(wǎng)絡(luò)人工智能機器學(xué)習(xí)與應(yīng)用

機器學(xué)習(xí)與應(yīng)用

機器學(xué)習(xí)與應(yīng)用

定 價:¥138.00

作 者: 雷明 著
出版社: 清華大學(xué)出版社
叢編項:
標(biāo) 簽: 暫缺

購買這本書可以去


ISBN: 9787302514688 出版時間: 2019-01-01 包裝: 平裝
開本: 16 頁數(shù): 600 字數(shù):  

內(nèi)容簡介

  內(nèi) 容 簡 介機器學(xué)習(xí)是當(dāng)前解決很多人工智能問題的核心技術(shù),深度學(xué)習(xí)的出現(xiàn)帶來了自2012年以來的人工智能復(fù)興。本書是機器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域的入門與提高教材,系統(tǒng)、深入地講述機器學(xué)習(xí)與深度學(xué)習(xí)的主流方法與理論,并緊密結(jié)合工程實踐與應(yīng)用。全書由21章組成,共分為三大部分。第1~3章為第一部分,介紹機器學(xué)習(xí)的基本原理、所需的數(shù)學(xué)知識(包括微積分、線性代數(shù)、概率論和*優(yōu)化方法),以及機器學(xué)習(xí)中的核心概念。第4~20章為第二部分,是本書的主體,介紹各種常用的有監(jiān)督學(xué)習(xí)算法、無監(jiān)督學(xué)習(xí)算法、半監(jiān)督學(xué)習(xí)算法和強化學(xué)習(xí)算法。對于每種算法,從原理與推導(dǎo)、工程實現(xiàn)和實際應(yīng)用3個方面進行介紹,對于大多數(shù)算法,都配有實驗程序。第21章為第三部分,介紹機器學(xué)習(xí)和深度學(xué)習(xí)算法實際應(yīng)用時面臨的問題,并給出典型的解決方案。此外,附錄A給出各種機器學(xué)習(xí)算法的總結(jié),附錄B給出梯度下降法的演化關(guān)系,附錄C給出EM算法的推導(dǎo)。本書理論推導(dǎo)與證明詳細、深入,結(jié)構(gòu)清晰,詳細地講述主要算法的工程實現(xiàn)細節(jié),配以著名開源庫的源代碼分析(包括libsvm、liblinear、OpenCV、Caffe等開源庫),讓讀者不僅知其然,還知其所以然,真正理解算法、學(xué)會使用算法。對于計算機、人工智能及相關(guān)專業(yè)的本科生和研究生,這是一本適合入門與系統(tǒng)學(xué)習(xí)的教材,對于從事人工智能和機器學(xué)習(xí)產(chǎn)品研發(fā)的工程技術(shù)人員,本書也具有很強的參考價值。

作者簡介

  雷明 人工智能學(xué)習(xí)與實踐平臺SIGAI的創(chuàng)始人;2009年畢業(yè)于清華大學(xué)計算機系,獲碩士學(xué)位,研究方向為機器視覺與機器學(xué)習(xí);畢業(yè)后曾就職于百度公司,任高級軟件工程師、項目經(jīng)理。2012年加入zmodo(深圳市智美達科技股份有限公司),任CTO與平臺研發(fā)中心負責(zé)人;2018年2月創(chuàng)立SIGAI,其核心產(chǎn)品為云端實驗室與知識庫,為人工智能學(xué)習(xí)與實踐提供便捷的一站式服務(wù);在機器學(xué)習(xí)與深度學(xué)習(xí)、機器視覺、自然語言處理方向有扎實的理論功底與豐富的學(xué)術(shù)和產(chǎn)品研發(fā)經(jīng)驗,碩士期間曾發(fā)表論文數(shù)篇。

圖書目錄

第一部分基本概念與數(shù)學(xué)知識

第1章機器學(xué)習(xí)簡介3
1.1機器學(xué)習(xí)是什么3
1.1.1一個簡單的例子3
1.1.2為什么需要機器學(xué)習(xí)5
1.2典型應(yīng)用7
1.2.1語音識別7
1.2.2人臉檢測8
1.2.3人機對弈9
1.2.4機器翻譯10
1.2.5自動駕駛11
1.3發(fā)展歷程11
1.3.1歷史成就11
1.3.2當(dāng)前進展12
1.4關(guān)于本書13
參考文獻15

第2章數(shù)學(xué)知識17
2.1微積分和線性代數(shù)17
2.1.1導(dǎo)數(shù)17
2.1.2向量與矩陣19
2.1.3偏導(dǎo)數(shù)與梯度21
2.1.4雅克比矩陣22
2.1.5Hessian矩陣23
2.1.6泰勒展開24
2.1.7行列式24
2.1.8特征值與特征向量25
2.1.9奇異值分解26
2.1.10二次型26
2.1.11向量與矩陣求導(dǎo)26
2.2最優(yōu)化方法27
2.2.1梯度下降法27
2.2.2牛頓法28
2.2.3坐標(biāo)下降法29
2.2.4拉格朗日乘數(shù)法30
2.2.5凸優(yōu)化30
2.2.6拉格朗日對偶34
2.2.7KKT條件36
2.2.8擬牛頓法37
2.2.9面臨的問題38
2.3概率論39
2.3.1隨機事件與概率39
2.3.2條件概率39
2.3.3隨機變量40
2.3.4數(shù)學(xué)期望與方差41
2.3.5隨機向量41
2.3.6最大似然估計42
參考文獻43
第3章基本概念44
3.1算法分類44
3.1.1監(jiān)督信號44
3.1.2分類問題與回歸問題45
3.1.3判別模型與生成模型47
3.1.4強化學(xué)習(xí)47
3.2模型評價指標(biāo)48
3.2.1精度與召回率48
3.2.2ROC曲線48
3.2.3混淆矩陣50
3.2.4交叉驗證50
3.3模型選擇50
3.3.1過擬合與欠擬合50
3.3.2偏差與方差分解51
3.3.3正則化52
參考文獻54

第二部分主要的機器學(xué)習(xí)算法與理論

第4章貝葉斯分類器57
4.1貝葉斯決策57
4.2樸素貝葉斯分類器58
4.2.1離散型特征58
4.2.2連續(xù)型特征59
4.3正態(tài)貝葉斯分類器59
4.3.1訓(xùn)練算法59
4.3.2預(yù)測算法60
4.4實驗程序61
4.5源代碼分析64
4.5.1主要數(shù)據(jù)結(jié)構(gòu)64
4.5.2訓(xùn)練函數(shù)65
4.5.3預(yù)測函數(shù)68
4.6應(yīng)用70
參考文獻71

第5章決策樹72
5.1樹形決策過程72
5.2分類與回歸樹73
5.3訓(xùn)練算法74
5.3.1遞歸分裂過程74
5.3.2尋找最佳分裂74
5.3.3葉子節(jié)點值的設(shè)定77
5.3.4屬性缺失問題77
5.3.5剪枝算法78
5.4實驗程序79
5.5源代碼分析81
5.5.1主要數(shù)據(jù)結(jié)構(gòu)81
5.5.2遞歸分裂84
5.5.3尋找最佳分裂90
5.5.4尋找替代分裂96
5.5.5變量的重要性99
5.5.6預(yù)測算法100
5.6應(yīng)用103
參考文獻103

第6章k近鄰算法104
6.1基本概念104
6.2預(yù)測算法104
6.3距離定義105
6.3.1常用距離定義105
6.3.2距離度量學(xué)習(xí)106
6.4實驗程序107
6.5應(yīng)用109
參考文獻110

第7章數(shù)據(jù)降維111
7.1主成分分析111
7.1.1數(shù)據(jù)降維問題111
7.1.2計算投影矩陣111
7.1.3向量降維114
7.1.4向量重構(gòu)114
7.2源代碼分析114
7.2.1主要數(shù)據(jù)結(jié)構(gòu)114
7.2.2計算投影矩陣115
7.2.3向量降維117
7.2.4向量重構(gòu)117
7.3流形學(xué)習(xí)118
7.3.1局部線性嵌入119
7.3.2拉普拉斯特征映射119
7.3.3局部保持投影122
7.3.4等距映射123
7.4應(yīng)用124
參考文獻124

第8章線性判別分析125
8.1用投影進行分類125
8.2投影矩陣125
8.2.1一維的情況125
8.2.2推廣到高維127
8.3實驗程序128
8.4源代碼分析131
8.4.1主要數(shù)據(jù)結(jié)構(gòu)131
8.4.2計算投影矩陣132
8.4.3向量投影135
8.4.4向量重構(gòu)136
8.5應(yīng)用136
參考文獻137

第9章人工神經(jīng)網(wǎng)絡(luò)138
9.1多層前饋型神經(jīng)網(wǎng)絡(luò)138
9.1.1神經(jīng)元138
9.1.2網(wǎng)絡(luò)結(jié)構(gòu)139
9.1.3正向傳播算法140
9.2反向傳播算法141
9.2.1一個簡單的例子141
9.2.2完整的算法145
9.3實驗程序149
9.4理論解釋152
9.4.1數(shù)學(xué)性質(zhì)152
9.4.2與神經(jīng)系統(tǒng)的關(guān)系153
9.5面臨的問題153
9.5.1梯度消失153
9.5.2退化154
9.5.3局部極小值154
9.5.4鞍點154
9.6實現(xiàn)細節(jié)問題154
9.6.1輸入值與輸出值154
9.6.2網(wǎng)絡(luò)規(guī)模155
9.6.3激活函數(shù)155
9.6.4損失函數(shù)156
9.6.5權(quán)重初始化156
9.6.6正則化156
9.6.7學(xué)習(xí)率的設(shè)定156
9.6.8動量項156
9.7源代碼分析157
9.7.1主要數(shù)據(jù)結(jié)構(gòu)157
9.7.2激活函數(shù)160
9.7.3權(quán)重初始化163
9.7.4訓(xùn)練函數(shù)164
9.7.5預(yù)測函數(shù)177
9.8應(yīng)用179
參考文獻180

第10章支持向量機182
10.1線性分類器182
10.1.1線性分類器概述182
10.1.2分類間隔182
10.2線性可分的問題183
10.2.1原問題183
10.2.2對偶問題184
10.3線性不可分的問題187
10.3.1原問題187
10.3.2對偶問題187
10.4核映射與核函數(shù)190
10.5SMO算法193
10.5.1求解子問題193
10.5.2優(yōu)化變量的選擇196
10.6多分類問題197
10.7實驗程序198
10.8源代碼分析200
10.8.1求解算法201
10.8.2主要數(shù)據(jù)結(jié)構(gòu)204
10.8.3求解器211
10.9應(yīng)用222
參考文獻223

第11章線性模型225
11.1logistic回歸225
11.2正則化logistic回歸228
11.2.1對數(shù)似然函數(shù)228
11.2.2L2正則化原問題229
11.2.3L2正則化對偶問題232
11.2.4L1正則化原問題233
11.2.5實驗程序234
11.3線性支持向量機236
11.3.1L2正則化L1-loss SVC原問題236
11.3.2L2正則化L2-loss SVC原問題237
11.3.3L2正則化SVC對偶問題237
11.3.4L1正則化L2-loss SVC原問題238
11.3.5多類線性支持向量機238
11.3.6實驗程序240
11.4源代碼分析241
11.4.1求解的問題241
11.4.2主要數(shù)據(jù)結(jié)構(gòu)241
11.4.3求解器249
11.5softmax回歸262
11.6應(yīng)用263
參考文獻264

第12章隨機森林266
12.1集成學(xué)習(xí)266
12.1.1隨機抽樣266
12.1.2Bagging算法267
12.2隨機森林概述267
12.3訓(xùn)練算法267
12.4變量的重要性268
12.5實驗程序269
12.6源代碼分析271
12.6.1主要數(shù)據(jù)結(jié)構(gòu)271
12.6.2訓(xùn)練算法273
12.6.3預(yù)測算法282
12.7應(yīng)用282
參考文獻283

第13章Boosting算法284
13.1AdaBoost算法簡介284
13.2訓(xùn)練算法284
13.3訓(xùn)練誤差分析286
13.4廣義加法模型288
13.5各種AdaBoost算法290
13.5.1離散型AdaBoost290
13.5.2實數(shù)型AdaBoost292
13.5.3LogitBoost292
13.5.4Gentle型AdaBoost294
13.6實現(xiàn)細節(jié)問題294
13.6.1弱分類器的選擇295
13.6.2弱分類器的數(shù)量295
13.6.3樣本權(quán)重削減295
13.7實驗程序295
13.8源代碼分析297
13.8.1主要數(shù)據(jù)結(jié)構(gòu)297
13.8.2弱分類器300
13.8.3強分類器306
13.9應(yīng)用——目標(biāo)檢測318
13.9.1VJ框架的原理319
13.9.2模型訓(xùn)練321
參考文獻322

第14章深度學(xué)習(xí)概論324
14.1機器學(xué)習(xí)面臨的挑戰(zhàn)324
14.1.1人工特征325
14.1.2機器學(xué)習(xí)算法326
14.2深度學(xué)習(xí)技術(shù)326
14.3進展與典型應(yīng)用328
14.3.1計算機視覺329
14.3.2語音識別331
14.3.3自然語言處理331
14.3.4計算機圖形學(xué)332
14.3.5推薦系統(tǒng)332
14.3.6深度強化學(xué)習(xí)333
14.4自動編碼器333
14.4.1自動編碼器簡介333
14.4.2去噪自動編碼器334
14.4.3稀疏自動編碼器334
14.4.4收縮自動編碼器335
14.4.5多層編碼器335
14.5受限玻爾茲曼機335
14.5.1玻爾茲曼分布335
14.5.2受限玻爾茲曼機336
14.5.3訓(xùn)練算法338
14.5.4深度玻爾茲曼機339
14.5.5深度置信網(wǎng)339
參考文獻339

第15章卷積神經(jīng)網(wǎng)絡(luò)347
15.1網(wǎng)絡(luò)結(jié)構(gòu)347
15.1.1卷積層348
15.1.2池化層351
15.1.3全連接層351
15.2訓(xùn)練算法352
15.2.1卷積層352
15.2.2池化層355
15.2.3隨機梯度下降法356
15.2.4遷移學(xué)習(xí)357
15.3典型網(wǎng)絡(luò)357
15.3.1LeNet-5網(wǎng)絡(luò)357
15.3.2AlexNet網(wǎng)絡(luò)358
15.3.3VGG網(wǎng)絡(luò)359
15.3.4GoogLeNet網(wǎng)絡(luò)360
15.4理論分析361
15.4.1反卷積運算361
15.4.2卷積層可視化362
15.4.3理論解釋364
15.5挑戰(zhàn)與改進措施365
15.5.1卷積層365
15.5.2池化層365
15.5.3激活函數(shù)366
15.5.4損失函數(shù)366
15.5.5網(wǎng)絡(luò)結(jié)構(gòu)366
15.5.6批量歸一化370
15.6實際例子371
15.6.1LeNet-5網(wǎng)絡(luò)371
15.6.2訓(xùn)練自己的模型373
15.7源代碼分析374
15.7.1Caffe簡介374
15.7.2數(shù)據(jù)層376
15.7.3卷積層376
15.7.4池化層378
15.7.5神經(jīng)元層378
15.7.6內(nèi)積層384
15.7.7損失層386
15.7.8網(wǎng)絡(luò)的實現(xiàn)——Net類396
15.7.9求解器398
15.8應(yīng)用——計算機視覺413
15.8.1人臉檢測414
15.8.2通用目標(biāo)檢測416
15.8.3人臉關(guān)鍵點定位425
15.8.4人臉識別425
15.8.5圖像分割428
15.8.6邊緣檢測429
15.8.7風(fēng)格遷移432
15.8.8圖像增強433
15.8.9三維視覺435
15.8.10目標(biāo)跟蹤436
15.9應(yīng)用——計算機圖形學(xué)437
15.9.1幾何模型438
15.9.2物理模型439
15.9.3紋理合成440
15.9.4圖像彩色化441
15.9.5HDR442
15.10應(yīng)用——自然語言處理444
15.10.1文本分類444
15.10.2機器翻譯444
參考文獻444

第16章循環(huán)神經(jīng)網(wǎng)絡(luò)450
16.1網(wǎng)絡(luò)結(jié)構(gòu)450
16.1.1循環(huán)層450
16.1.2輸出層451
16.1.3一個簡單的例子452
16.1.4深層網(wǎng)絡(luò)452
16.2網(wǎng)絡(luò)的訓(xùn)練453
16.2.1一個簡單的例子453
16.2.2完整的算法455
16.3挑戰(zhàn)與改進措施457
16.3.1梯度消失457
16.3.2長短期記憶模型458
16.3.3門控循環(huán)單元459
16.3.4雙向網(wǎng)絡(luò)459
16.4序列預(yù)測問題460
16.4.1序列標(biāo)注問題460
16.4.2連接主義時序分類461
16.4.3序列到序列學(xué)習(xí)465
16.5應(yīng)用——語音識別467
16.5.1語音識別問題467
16.5.2隱馬爾可夫模型468
16.5.3高斯混合模型474
16.5.4GMMHMM框架475
16.5.5深度模型475
16.6應(yīng)用——自然語言處理478
16.6.1中文分詞479
16.6.2詞性標(biāo)注480
16.6.3命名實體識別480
16.6.4文本分類481
16.6.5自動摘要483
16.6.6機器翻譯483
16.7應(yīng)用——機器視覺485
16.7.1字符識別485
16.7.2目標(biāo)跟蹤486
16.7.3視頻分析488
參考文獻490

第17章生成對抗網(wǎng)絡(luò)494
17.1隨機數(shù)據(jù)生成494
17.2生成對抗網(wǎng)絡(luò)簡介495
17.2.1生成模型495
17.2.2判別模型496
17.3模型的訓(xùn)練496
17.3.1目標(biāo)函數(shù)496
17.3.2訓(xùn)練算法497
17.3.3理論分析498
17.4應(yīng)用與改進499
17.4.1改進方案500
17.4.2典型應(yīng)用503
參考文獻505

第18章聚類算法506
18.1問題定義506
18.2層次聚類507
18.3基于質(zhì)心的算法507
18.4基于概率分布的算法508
18.5基于密度的算法512
18.5.1DBSCAN算法512
18.5.2OPTICS算法514
18.5.3Mean Shift算法516
18.6基于圖的算法517
18.7算法評價指標(biāo)518
18.7.1內(nèi)部指標(biāo)518
18.7.2外部指標(biāo)518
18.8應(yīng)用519
參考文獻519

第19章半監(jiān)督學(xué)習(xí)521
19.1問題假設(shè)521
19.1.1連續(xù)性假設(shè)521
19.1.2聚類假設(shè)521
19.1.3流形假設(shè)521
19.1.4低密度分割假設(shè)521
19.2啟發(fā)式算法522
19.2.1自訓(xùn)練522
19.2.2協(xié)同訓(xùn)練522
19.3生成模型522
19.4低密度分割523
19.5基于圖的算法523
19.6半監(jiān)督深度學(xué)習(xí)524
參考文獻525

第20章強化學(xué)習(xí)527
20.1強化學(xué)習(xí)簡介527
20.1.1問題定義527
20.1.2馬爾可夫決策過程528
20.2基于動態(tài)規(guī)劃的算法532
20.2.1策略迭代算法532
20.2.2價值迭代算法534
20.3蒙特卡洛算法535
20.3.1算法簡介535
20.3.2狀態(tài)價值函數(shù)估計536
20.3.3動作價值函數(shù)估計537
20.3.4蒙特卡洛控制537
20.4時序差分學(xué)習(xí)538
20.4.1Sarsa算法538
20.4.2Q學(xué)習(xí)539
20.5深度強化學(xué)習(xí)540
20.5.1深度Q網(wǎng)絡(luò)541
20.5.2策略梯度算法544
20.6應(yīng)用547
參考文獻547第三部分工程實踐問題

第21章工程實踐問題概述551
21.1實現(xiàn)細節(jié)問題551
21.1.1訓(xùn)練樣本551
21.1.2特征預(yù)處理552
21.1.3模型選擇552
21.1.4過擬合問題552
21.2安全性問題553
21.2.1對抗樣本553
21.2.2形成原因分析555
21.3實現(xiàn)成本問題556
21.3.1訓(xùn)練樣本量556
21.3.2計算與存儲成本556
21.4深度模型優(yōu)化557
21.4.1剪枝與編碼557
21.4.2二值化網(wǎng)絡(luò)558
21.4.3卷積核分離562
參考文獻563

附錄A各種機器學(xué)習(xí)算法的總結(jié)565

附錄B梯度下降法的演化關(guān)系(見第15章)569

附錄CEM算法的推導(dǎo)(見第18章)570

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) www.afriseller.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號