定 價(jià):¥59.00
作 者: | (美)托威赫·貝索洛 |
出版社: | 機(jī)械工業(yè)出版社 |
叢編項(xiàng): | |
標(biāo) 簽: | 暫缺 |
ISBN: | 9787111604372 | 出版時(shí)間: | 2018-08-01 | 包裝: | 平裝 |
開本: | 16開 | 頁數(shù): | 字?jǐn)?shù): |
譯者序
關(guān)于作者
關(guān)于技術(shù)審稿人
前言
第1章深度學(xué)習(xí)簡(jiǎn)介
1.1深度學(xué)習(xí)模型
1.1.1單層感知器模型
1.1.2多層感知器模型
1.1.3卷積神經(jīng)網(wǎng)絡(luò)
1.1.4循環(huán)神經(jīng)網(wǎng)絡(luò)
1.1.5受限玻耳茲曼機(jī)
1.1.6深度信念網(wǎng)絡(luò)
1.2其他
1.2.1實(shí)驗(yàn)設(shè)計(jì)
1.2.2特征選擇
1.2.3機(jī)器學(xué)習(xí)及深度學(xué)習(xí)應(yīng)用
1.2.4深度學(xué)習(xí)的歷史
1.3小結(jié)
第2章數(shù)學(xué)知識(shí)回顧
2.1統(tǒng)計(jì)學(xué)基本概念
2.1.1概率
2.1.2交與并
2.1.3貝葉斯定理
2.1.4隨機(jī)變量
2.1.5方差
2.1.6標(biāo)準(zhǔn)差
2.1.7可決系數(shù)
2.1.8均方誤差
2.2線性代數(shù)
2.2.1標(biāo)量和向量
2.2.2向量的特性
2.2.3公理
2.2.4子空間
2.2.5矩陣
2.3小結(jié)
第3章優(yōu)化及機(jī)器學(xué)習(xí)回顧
3.1無約束優(yōu)化
3.1.1局部極小值
3.1.2全局極小值
3.1.3局部極小值的條件
3.2近鄰算法
3.3機(jī)器學(xué)習(xí)方法:有監(jiān)督學(xué)習(xí)
3.3.1機(jī)器學(xué)習(xí)的歷史
3.3.2什么是算法
3.4回歸模型
3.5選擇合適的學(xué)習(xí)速率
3.5.1牛頓法
3.5.2LevenbergMarquardt啟發(fā)式方法
3.6多重共線性
3.7評(píng)價(jià)回歸模型
3.8分類
3.8.1邏輯回歸
3.8.2受試者工作特征曲線
3.8.3混淆矩陣
3.8.4邏輯回歸的局限性
3.8.5支持向量機(jī)
3.9機(jī)器學(xué)習(xí)方法:無監(jiān)督學(xué)習(xí)
3.9.1K均值聚類
3.9.2K均值聚類的局限性
3.10最大期望算法
3.11決策樹學(xué)習(xí)
3.12集成方法以及其他啟發(fā)式算法
3.13貝葉斯學(xué)習(xí)
3.14強(qiáng)化學(xué)習(xí)
3.15小結(jié)
第4章單層及多層感知器模型
4.1單層感知器模型
4.1.1訓(xùn)練感知器模型
4.1.2WH算法
4.1.3單層感知器模型的局限性
4.1.4匯總統(tǒng)計(jì)結(jié)果
4.2多層感知器模型
4.2.1收斂得到全局最優(yōu)解
4.2.2MLP模型中的反向傳播算法
4.2.3MLP模型的局限性和討論
4.2.4應(yīng)該使用幾層隱含層,又應(yīng)該有多少個(gè)神經(jīng)元
4.3小結(jié)
第5章卷積神經(jīng)網(wǎng)絡(luò)
5.1CNN的結(jié)構(gòu)和特點(diǎn)
5.2CNN的組成
5.2.1卷積層
5.2.2池化層
5.2.3修正線性單元層
5.2.4全連接層
5.2.5損失層
5.3參數(shù)調(diào)整
5.4經(jīng)典的CNN架構(gòu)
5.5正則化
5.6小結(jié)
第6章循環(huán)神經(jīng)網(wǎng)絡(luò)
6.1完全循環(huán)網(wǎng)絡(luò)
6.2使用時(shí)間反向傳播訓(xùn)練RNN
6.3Elman神經(jīng)網(wǎng)絡(luò)
6.4神經(jīng)歷史壓縮器
6.5長(zhǎng)短期記憶網(wǎng)絡(luò)
6.6RNN里的結(jié)構(gòu)化抑制
6.7參數(shù)調(diào)優(yōu)更新算法
6.8RNN的實(shí)際案例:模式檢測(cè)
6.9小結(jié)
第7章自編碼器、受限玻耳茲曼機(jī)及深度信念網(wǎng)絡(luò)
7.1自編碼器
7.2受限玻耳茲曼機(jī)
7.3深度信念網(wǎng)絡(luò)
7.4快速學(xué)習(xí)算法
7.5小結(jié)
第8章實(shí)驗(yàn)設(shè)計(jì)與啟發(fā)
8.1方差分析
8.2F統(tǒng)計(jì)和F分布
8.3PlackettBurman設(shè)計(jì)
8.4空間填充
8.5全因子
8.6Halton、Faure和Sobol序列
8.7A/B測(cè)試
8.7.1簡(jiǎn)單雙樣本A/B測(cè)試
8.7.2A/B測(cè)試中的β二項(xiàng)層次模型
8.8特征、變量選擇技術(shù)
8.8.1后向與前向選擇
8.8.2主成分分析
8.8.3因子分析
8.9處理分類數(shù)據(jù)
8.9.1因子水平編碼
8.9.2分類標(biāo)簽問題:太多水平值
8.9.3典型相關(guān)分析
8.10包裹式、過濾式及嵌入式算法
8.11其他局部搜索算法
8.11.1登山算法
8.11.2遺傳算法
8.11.3模擬退火
8.11.4蟻群優(yōu)化算法
8.11.5變鄰域搜索算法
8.12反應(yīng)式搜索優(yōu)化
8.12.1反應(yīng)式禁忌
8.12.2固定禁忌搜索
8.12.3反應(yīng)式禁忌搜索
8.12.4WalkSAT算法
8.12.5K近鄰
8.13小結(jié)
第9章軟硬件建議
9.1使用標(biāo)準(zhǔn)硬件處理數(shù)據(jù)
9.2固態(tài)硬盤和硬盤驅(qū)動(dòng)器
9.3圖形處理單元
9.4中央處理器
9.5隨機(jī)存取存儲(chǔ)器
9.6主板
9.7供電設(shè)備
9.8機(jī)器學(xué)習(xí)軟件的優(yōu)化
9.9小結(jié)
第10章機(jī)器學(xué)習(xí)實(shí)例
10.1問題1:資產(chǎn)價(jià)格預(yù)測(cè)
10.1.1問題類型:有監(jiān)督學(xué)習(xí)——回歸
10.1.2實(shí)驗(yàn)說明
10.1.3特征選擇
10.1.4模型評(píng)價(jià)
10.2問題2:速配
10.2.1問題類型:分類
10.2.2數(shù)據(jù)預(yù)處理:數(shù)據(jù)清洗和填充
10.2.3特征選擇
10.2.4模型訓(xùn)練和評(píng)價(jià)
10.3小結(jié)
第11章深度學(xué)習(xí)及其他實(shí)例
11.1自編碼器
11.2卷積神經(jīng)網(wǎng)絡(luò)
11.2.1預(yù)處理
11.2.2模型構(gòu)建和訓(xùn)練
11.3協(xié)同過濾
11.4小結(jié)
結(jié)束語