定 價:¥79.00
作 者: | 鄒偉,張良謀,劉亞明 譯 |
出版社: | 清華大學出版社 |
叢編項: | |
標 簽: | 暫缺 |
ISBN: | 9787302627647 | 出版時間: | 2023-05-01 | 包裝: | 平裝 |
開本: | 16開 | 頁數(shù): | 字數(shù): |
第1章Keras機器學習簡介
1.1機器學習簡介
1.2數(shù)據(jù)展示
1.2.1數(shù)據(jù)表格
1.2.2加載數(shù)據(jù)
訓練1.01從UCI機器學習代碼庫加載一個數(shù)據(jù)集
1.3數(shù)據(jù)處理
訓練1.02清理數(shù)據(jù)
訓練1.03數(shù)據(jù)的正確表示
1.4模型創(chuàng)建的生命周期
1.5scikitlearn簡介
1.6Keras簡介
1.6.1Keras的優(yōu)點
1.6.2Keras的缺點
1.6.3Keras在其他方面的應用
1.7模型訓練
1.7.1分類器和回歸模型
1.7.2分類任務
1.7.3回歸任務
1.7.4訓練和測試數(shù)據(jù)集
1.7.5模型評估矩陣
訓練1.04創(chuàng)建一個簡單的模型
1.8模型微調(diào)
1.8.1基線模型
訓練1.05設計一個基線模型
1.8.2正則化
1.8.3交叉驗證
實踐1.01向模型添加正則化
1.9總結(jié)
第2章機器學習與深度學習
2.1簡介
2.1.1ANN的優(yōu)勢
2.1.2傳統(tǒng)機器學習算法的優(yōu)勢
2.1.3分層數(shù)據(jù)的表示
2.2線性變換
2.2.1標量、向量、矩陣和張量
2.2.2張量相加
訓練2.01使用向量、矩陣和張量執(zhí)行各種操作
2.2.3重塑
2.2.4矩陣轉(zhuǎn)置
訓練2.02矩陣重塑和轉(zhuǎn)置
2.2.5矩陣乘法
訓練2.03將矩陣相乘
訓練2.04將矩陣乘法應用于高階張量
2.3Keras實現(xiàn)
2.3.1層的類型
2.3.2激活函數(shù)
2.3.3模型擬合
實踐2.01使用Keras創(chuàng)建邏輯回歸模型
2.4總結(jié)
第3章Keras深度學習
3.1簡介
3.2搭建第一個神經(jīng)網(wǎng)絡
3.2.1從邏輯回歸到深度神經(jīng)網(wǎng)絡
3.2.2激活函數(shù)
3.2.3用于預測的前向傳播
3.2.4損失函數(shù)
3.2.5反向傳播計算損失函數(shù)的導數(shù)
3.2.6通過梯度下降法學習參數(shù)
訓練3.01使用Keras實現(xiàn)神經(jīng)網(wǎng)絡
實踐3.01構(gòu)建單層神經(jīng)網(wǎng)絡進行二進制分類
3.3模型評估
3.3.1用Keras進行模型評估
3.3.2將數(shù)據(jù)集拆分為訓練集和測試集
3.3.3過擬合和欠擬合
3.3.4早停
實踐3.02神經(jīng)網(wǎng)絡與高級纖維化診斷
3.4總結(jié)
第4章基于Keras包裝器的交叉驗證評價模型
4.1簡介
4.2交叉驗證
4.2.1只分割一次數(shù)據(jù)集的弊端
4.2.2kfold交叉驗證
4.2.3留一法交叉驗證
4.2.4kfold交叉驗證和LOO交叉驗證的比較
4.3深度學習模型的交叉驗證方法
4.3.1帶有scikitlearn的Keras包
訓練4.01在回歸問題中使用scikitlearn構(gòu)建Keras包裝器
4.3.2使用scikitlearn進行交叉驗證
4.3.3scikitlearn中的交叉驗證迭代器
訓練4.02使用交叉驗證評估深度神經(jīng)網(wǎng)絡
實踐4.01使用交叉驗證對晚期肝纖維化診斷分類器進行模型評估
4.4利用交叉驗證選擇模型
訓練4.03編寫自定義函數(shù)實現(xiàn)含有交叉驗證的深度學習模型
實踐4.02用交叉驗證為高纖維化診斷分類器選擇模型
實踐4.03在Traffic Volume數(shù)據(jù)集上使用交叉驗證進行模型選擇
4.5總結(jié)
第5章模型精度的提高
5.1簡介
5.2正則化
5.2.1正則化的需求
5.2.2用正則化減少過擬合
5.3L1和L2正則化
5.3.1L1和L2正則化公式
5.3.2Keras的L1和L2正則化實現(xiàn)
實踐5.01Avila模式分類器上的權重正則化
5.4丟棄正則化
5.4.1丟棄正則化原理
5.4.2使用丟棄正則化減少過擬合
訓練5.01使用Keras實現(xiàn)丟棄正則化
實踐5.02Traffic Volume數(shù)據(jù)集的丟棄正則化
5.5其他正則化方法
5.5.1在Keras中實現(xiàn)早停
訓練5.02用Keras實現(xiàn)早停
5.5.2數(shù)據(jù)增強
5.5.3添加噪聲
5.6scikitlearn超參數(shù)調(diào)優(yōu)
5.6.1使用scikitlearn進行網(wǎng)格搜索
5.6.2使用scikitlearn進行隨機搜索
實踐5.03對Avila模式分類器進行超參數(shù)調(diào)優(yōu)
5.7總結(jié)
第6章模型評估
6.1簡介
6.2準確率
訓練6.01計算太平洋颶風數(shù)據(jù)集的零精度
6.3不平衡數(shù)據(jù)集
6.4混淆矩陣
訓練6.02Scania卡車數(shù)據(jù)的計算精度和零精度
實踐6.01改變訓練/測試比例,計算神經(jīng)網(wǎng)絡的準確率和零精度
訓練6.03基于混淆矩陣推導和計算指標
實踐6.02計算ROC曲線和AUC評分
6.5總結(jié)
第7章基于卷積神經(jīng)網(wǎng)絡的計算機視覺
7.1簡介
7.2計算機視覺
7.3卷積神經(jīng)網(wǎng)絡
7.4卷積神經(jīng)網(wǎng)絡架構(gòu)
7.4.1輸入圖像
7.4.2卷積層
7.4.3池化層
7.4.4扁平化
7.5圖像增強
訓練7.01創(chuàng)建一個識別圖像中汽車和花的卷積神經(jīng)網(wǎng)絡
實踐7.01用多個卷積層和softmax層對模型進行修復
訓練7.02用sigmoid激活函數(shù)對模型進行修復
訓練7.03將優(yōu)化器Adam更改為SGD
訓練7.04對一個新圖像進行分類
實踐7.02對另一個新圖像進行分類
7.6總結(jié)
第8章遷移學習和預訓練模型
8.1簡介
8.2預訓練與遷移學習
8.3對預訓練的網(wǎng)絡進行微調(diào)
8.3.1ImageNet數(shù)據(jù)集
8.3.2Keras的一些預訓練網(wǎng)絡
訓練8.01使用VGG16網(wǎng)絡識別圖像
實踐8.01使用VGG16網(wǎng)絡訓練深度學習網(wǎng)絡識別圖像
訓練8.02對不在ImageNet數(shù)據(jù)集中的圖像進行分類
訓練8.03微調(diào)VGG16模型
訓練8.04使用ResNet進行圖像分類
實踐8.02使用ResNet進行圖像分類
8.4總結(jié)
第9章基于循環(huán)神經(jīng)網(wǎng)絡的順序建模
9.1簡介
9.2順序記憶和順序建模
9.3循環(huán)神經(jīng)網(wǎng)絡
9.3.1梯度消失問題
9.3.2梯度爆炸問題的簡析
9.4長短期記憶網(wǎng)絡
訓練9.01使用50個單元(神經(jīng)元)的LSTM預測Alphabet股價趨勢
實踐9.01使用50個單元(神經(jīng)元)的LSTM預測亞馬遜股價趨勢
訓練9.02使用100個單元(神經(jīng)元)的LSTM預測Alphabet股價趨勢
實踐9.02通過添加正則化預測亞馬遜股價
實踐9.03使用100個單元(神經(jīng)元)的LSTM預測亞馬遜股價趨勢
9.5總結(jié)
附錄A各章實踐內(nèi)容解析