注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學技術計算機/網(wǎng)絡人工智能機器學習開發(fā)者指南

機器學習開發(fā)者指南

機器學習開發(fā)者指南

定 價:¥59.00

作 者: [阿根廷] 魯?shù)婪颉ぐ顚帲≧odolfo Bonnin) 著,AI研習社 譯
出版社: 人民郵電出版社
叢編項:
標 簽: 暫缺

購買這本書可以去


ISBN: 9787115529305 出版時間: 2020-05-01 包裝: 平裝
開本: 16開 頁數(shù): 214 字數(shù):  

內(nèi)容簡介

  本書將帶領讀者學習如何實施各種機器學習技術及其日常應用的開發(fā)。本書分為9章,從易于掌握的語言基礎數(shù)據(jù)和數(shù)學模型開始,向讀者介紹機器學習領域中使用的各種庫和框架,然后通過有趣的示例實現(xiàn)回歸、聚類、分類、神經(jīng)網(wǎng)絡等,從而解決如圖像分析、自然語言處理和時間序列數(shù)據(jù)的異常檢測等實際問題。本書適合機器學習的開發(fā)人員、數(shù)據(jù)分析人員、機器學習領域的從業(yè)人員,以及想要學習機器學習的技術愛好者閱讀。使用任何腳本語言的編程人員都可以閱讀本書,但如果熟悉Python語言的話,將有助于充分理解本書的內(nèi)容。

作者簡介

  Rodolfo Bonnin是阿根廷國家科技大學的系統(tǒng)工程師,博士。他在德國斯圖加特大學學習并行編程和圖像理解的研究生課程。自2005年以來,他一直在研究高性能計算,并于2008年開始研究和實現(xiàn)卷積神經(jīng)網(wǎng)絡,編寫支持CPU和GPU的神經(jīng)網(wǎng)絡前饋階段。最近,他一直致力于利用神經(jīng)網(wǎng)絡進行欺詐模式檢測的工作,并使用機器學習技術進行信號分類。他也是《Tensorflow機器學習項目實戰(zhàn)》的作者。

圖書目錄

目錄
第 1章 機器學習和統(tǒng)計科學 1
1.1 機器學習的發(fā)展 2
1.2 編程語言與庫 6
1.3 基本數(shù)學概念 11
1.3.1 統(tǒng)計學——不確定性建模的基本支柱 11
1.3.2 概率與隨機變量 14
1.3.3 概率函數(shù)的統(tǒng)計度量 21
1.3.4 微分基礎 22
1.3.5 預備知識 22
1.4 小結 27
第 2章 學習過程 28
2.1 理解問題 28
2.2 數(shù)據(jù)集定義與檢索 30
2.2.1 ETL過程 30
2.2.2 加載數(shù)據(jù)與使用Scipy和Pandas進行探索分析 31
2.2.3 與IPython交互 32
2.2.4 二維數(shù)據(jù)處理 34
2.3 特征工程 37
2.3.1 缺失數(shù)據(jù)估算 37
2.3.2 獨熱編碼 38
2.4 數(shù)據(jù)預處理 39
規(guī)范化和特征縮放 39
2.5 模型定義 41
提出正確的問題 41
2.6 損失函數(shù)定義 42
2.7 模型擬合和評價 43
數(shù)據(jù)集劃分 43
2.8 模型應用與結果分析 44
2.8.1 回歸指標 45
2.8.2 分類指標 46
2.8.3 聚類質量評估 48
2.9 小結 50
第3章 聚類 51
3.1 分組—— 一種人類行為 51
3.2 自動化聚類過程 52
3.3 尋找一個共同的中心—— K-means 53
3.3.1 K-means的優(yōu)缺點 56
3.3.2 K-means算法分解 56
3.3.3 K-means算法實現(xiàn) 58
3.4 最近鄰(Nearest Neighbors) 62
3.5 K-NN算法實現(xiàn)示例 64
3.6 算法擴展 67
3.7 小結 68
第4章 線性回歸和邏輯回歸 69
4.1 回歸分析 69
回歸的應用 70
4.2 線性回歸 71
4.2.1 代價函數(shù)的確定 72
4.2.2 分析方法 74
4.2.3 協(xié)方差和相關性 75
4.2.4 尋找協(xié)方差和相關性的斜率和截距 77
4.2.5 梯度下降法 79
4.2.6 遞歸過程表示 83
4.3 實踐中的數(shù)據(jù)研究和線性回歸 86
4.3.1 鳶尾花數(shù)據(jù)集 87
4.3.2 線性回歸與梯度下降 93
4.4 邏輯回歸 103
4.4.1 線性回歸和邏輯回歸 103
4.4.2 logit函數(shù) 105
4.4.3 應用邏輯回歸建立心臟疾病模型的實例 109
4.5 小結 112
第5章 神經(jīng)網(wǎng)絡 113
5.1 神經(jīng)模型的歷史 114
5.1.1 感知器模型 115
5.1.2 改進預測結果——ADALINE算法 116
5.1.3 感知器和ADALINE之間的異同 118
5.1.4 單層和多層感知器 120
5.2 使用單層感知器實現(xiàn)簡單的功能 124
5.2.1 定義并繪制傳遞函數(shù)類型 124
5.2.2 表示和理解傳遞函數(shù) 125
5.2.3 Sigmoid函數(shù)或邏輯函數(shù) 126
5.2.4 使用Sigmoid函數(shù) 126
5.2.5 修正線性單元 128
5.2.6 線性傳遞函數(shù) 129
5.2.7 定義損失函數(shù) 130
5.3 小結 136
第6章 卷積神經(jīng)網(wǎng)絡 137
6.1 卷積神經(jīng)網(wǎng)絡的起源 137
6.1.1 從卷積開始 138
6.1.2 卷積核和卷積 140
6.1.3 在實例中實現(xiàn)二維離散卷積 143
6.1.4 下采樣(池化) 146
6.1.5 通過Dropout操作提高效率 148
6.2 深度神經(jīng)網(wǎng)絡 149
6.2.1 深度卷積網(wǎng)絡框架的發(fā)展 149
6.2.2 深度卷積神經(jīng)網(wǎng)絡解決的問題類型 154
6.3 使用Keras部署一個深度神經(jīng)網(wǎng)絡 156
6.4 用Quiver開發(fā)卷積模型 158
6.4.1 用Quiver開發(fā)卷積網(wǎng)絡 158
6.4.2 遷移學習的實現(xiàn) 162
6.5 小結 167
第7章 循環(huán)神經(jīng)網(wǎng)絡 168
7.1 按順序解決問題—— RNN 168
7.1.1 RNN的定義 169
7.1.2 RNN的發(fā)展 169
7.2 LSTM 172
7.2.1 門和乘法運算 172
7.2.2 設置遺忘參數(shù)(輸入門) 174
7.2.3 設置保持參數(shù) 174
7.2.4 修改單元 175
7.2.5 輸出過濾后的單元狀態(tài) 175
7.3 采用電能消耗數(shù)據(jù)預測單變量時間序列 176
數(shù)據(jù)集的描述和加載 176
7.4 小結 182
第8章 近期的新模型及其發(fā)展 183
8.1 GAN 183
GAN的應用類別 184
8.2 強化學習 188
8.2.1 馬爾可夫決策過程 189
8.2.2 優(yōu)化馬爾可夫過程 190
8.3 基本強化學習技術:Q學習 191
8.4 小結 193
第9章 軟件安裝與配置 194
9.1 Linux系統(tǒng)環(huán)境安裝 194
9.1.1 初始配置要求 195
9.1.2 Anaconda安裝 195
9.1.3 pip安裝 200
9.2 macOS X系統(tǒng)環(huán)境安裝 201
9.2.1 Anaconda安裝 201
9.2.2 pip安裝 204
9.3 Windows系統(tǒng)環(huán)境安裝 205
Anaconda安裝 205
9.4 小結 208
參考資料 209

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) www.afriseller.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號