注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)軟件與程序設(shè)計(jì)程序設(shè)計(jì)綜合速通深度學(xué)習(xí)數(shù)學(xué)基礎(chǔ)

速通深度學(xué)習(xí)數(shù)學(xué)基礎(chǔ)

速通深度學(xué)習(xí)數(shù)學(xué)基礎(chǔ)

定 價(jià):¥79.00

作 者: 盧菁
出版社: 電子工業(yè)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買(mǎi)這本書(shū)可以去


ISBN: 9787121447808 出版時(shí)間: 2022-12-01 包裝: 平裝
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  本書(shū)以線(xiàn)性代數(shù)、微積分、概率論為邏輯主線(xiàn),講解了與深度學(xué)習(xí)有關(guān)的大部分?jǐn)?shù)學(xué)內(nèi)容。本書(shū)以理論結(jié)合實(shí)際的方式講解,使數(shù)學(xué)知識(shí)不再是冰冷的公式堆砌,而變成一個(gè)個(gè)真實(shí)的案例,同時(shí)對(duì)案例背后的原理進(jìn)行理論上的升華,希望達(dá)到一通百通的效果。讀者通過(guò)閱讀本書(shū),不僅能夠提升閱讀學(xué)術(shù)論文中的數(shù)學(xué)公式的能力,還能加深對(duì)深度學(xué)習(xí)本身的理解。 本書(shū)面向入門(mén)級(jí)讀者,摒棄復(fù)雜的數(shù)學(xué)推導(dǎo)和證明,重視邏輯推理和簡(jiǎn)單的表達(dá),特別適合數(shù)學(xué)基礎(chǔ)不足的讀者閱讀。

作者簡(jiǎn)介

  2003年~2012年年就讀于北京科技大學(xué)本科碩士博士,2016年于北京大學(xué)博士后流動(dòng)站出站,研究方向?yàn)椋簷C(jī)器學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué)和自然語(yǔ)言屬于。工作于騰訊,愛(ài)奇藝等頂級(jí)互聯(lián)網(wǎng)公司從事人工智能技術(shù)的應(yīng)用研發(fā)工作。曾獲得騰訊年度人工智能銅獎(jiǎng),所做項(xiàng)目涉及自然語(yǔ)言處理,推薦系統(tǒng),領(lǐng)導(dǎo)團(tuán)隊(duì)參與多項(xiàng)公司級(jí)項(xiàng)目的搭建和優(yōu)化。工作之余,一直和培訓(xùn)機(jī)構(gòu)進(jìn)行合作,主講人工智能課程,致力于人工智能在中國(guó)的普及推廣和應(yīng)用。

圖書(shū)目錄

第1章 線(xiàn)性代數(shù)的基本概念 1

1.1 向量和深度學(xué)習(xí) 1

1.2 向量距離計(jì)算 7

1.3 向量的基本性質(zhì) 11

1.3.1 向量的基本運(yùn)算 11

1.3.2 線(xiàn)性相關(guān)和線(xiàn)性無(wú)關(guān) 14

1.3.3 向量的投影和正交 15

1.4 矩陣 18

1.4.1 矩陣的基本概念 18

1.4.2 矩陣和神經(jīng)網(wǎng)絡(luò) 26

1.4.3 矩陣的秩 28

1.5 一些特殊的矩陣 30

1.5.1 矩陣的逆和廣義逆 30

1.5.2 正交矩陣 32

第2章 線(xiàn)性代數(shù)在深度學(xué)習(xí)中的應(yīng)用 34

2.1 特征值和特征向量 34

2.1.1 特征值和特征向量的定義 34

2.1.2 一般矩陣的特征分解 37

2.1.3 對(duì)稱(chēng)矩陣的特征分解 38

2.2 奇異值分解 41

2.3 正定矩陣 45

2.4 矩陣的范數(shù)和神經(jīng)網(wǎng)絡(luò) 46

2.5 主成分分析 49

2.6 推薦系統(tǒng)中的矩陣分解 55

第3章 微積分的基本概念 59

3.1 導(dǎo)數(shù)的定義和幾何意義 59

3.2 復(fù)雜函數(shù)求導(dǎo) 61

3.3 導(dǎo)數(shù)的存在性 64

3.4 多元函數(shù)求導(dǎo) 65

3.5 二階導(dǎo)數(shù)和高階導(dǎo)數(shù) 65

3.6 函數(shù)的極大值和極小值 69

3.6.1 一元函數(shù)的極大值和極小值 69

3.6.2 多元函數(shù)的凹凸性和海森矩陣 72

3.6.3 凸優(yōu)化證明 73

第4章 微積分在深度學(xué)習(xí)中的應(yīng)用 77

4.1 梯度下降法 77

4.1.1 梯度下降法在深度學(xué)習(xí)中的應(yīng)用 77

4.1.2 泰勒公式和梯度下降法 80

4.1.3 牛頓迭代法 81

4.2 梯度下降法的缺點(diǎn) 84

4.3 矩陣求導(dǎo)術(shù) 88

4.3.1 標(biāo)量對(duì)向量和矩陣求導(dǎo) 88

4.3.2 向量對(duì)向量求導(dǎo) 89

4.3.3 鏈?zhǔn)椒▌t 91

4.4 常見(jiàn)激活函數(shù)及其導(dǎo)數(shù) 92

4.5 常見(jiàn)損失函數(shù)及其導(dǎo)數(shù) 99

4.5.1 分類(lèi)和回歸 99

4.5.2 哈夫曼樹(shù)和負(fù)采樣 103

4.5.3 度量學(xué)習(xí) 106

4.6 積分和求和 108

4.6.1 積分和不定積分 108

4.6.2 多重積分 111

4.6.3 分類(lèi)模型的效果指標(biāo)AUC 113

第5章 概率的基本概念 117

5.1 概率入門(mén) 117

5.2 聯(lián)合概率和條件概率 119

5.3 貝葉斯定理 122

5.4 連續(xù)概率分布 124

5.5 均值和方差 126

5.6 相關(guān)性 130

5.7 正態(tài)分布 133

5.7.1 正態(tài)分布的基本概念和性質(zhì) 133

5.7.2 正態(tài)分布和邏輯回歸 137

第6章 概率在深度學(xué)習(xí)中的應(yīng)用 139

6.1 概率分布之間的距離 139

6.2 最大似然估計(jì) 140

6.3 Logit和Softmax 143

6.3.1 二分類(lèi)的Logit 143

6.3.2 多分類(lèi)的Softmax 144

6.4 語(yǔ)言模型 147

6.5 概率悖論 150

6.5.1 辛普森悖論 150

6.5.2 基本比率謬誤 151

6.5.3 羅杰斯現(xiàn)象 153

6.5.4 伯克森悖論 153

6.6 統(tǒng)計(jì)學(xué)基礎(chǔ) 155

6.6.1 卡方分布和學(xué)生分布 155

6.6.2 假設(shè)檢驗(yàn) 158

6.6.3 AB測(cè)試 168

6.7 各類(lèi)散列變換 172

6.7.1 特征Hash 172

6.7.2 MD5 174

6.7.3 特征空間的投影 175

6.7.4 simhash 177

6.7.5 minhash 178

6.8 分類(lèi)器性能的極限 181

6.8.1 最大AUC 181

6.8.2 貝葉斯錯(cuò)誤率 184


本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) www.afriseller.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)