注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學技術(shù)計算機/網(wǎng)絡計算機科學理論與基礎(chǔ)知識在線凸優(yōu)化(第2版)

在線凸優(yōu)化(第2版)

在線凸優(yōu)化(第2版)

定 價:¥99.80

作 者: [美] 埃拉德·哈贊(Elad Hazan)著 羅俊仁 張萬鵬 譯
出版社: 清華大學出版社
叢編項:
標 簽: 暫缺

購買這本書可以去


ISBN: 9787302661122 出版時間: 2024-06-01 包裝: 線裝
開本: 32開 頁數(shù): 字數(shù):  

內(nèi)容簡介

  《在線凸優(yōu)化(第2版)》全面更新,深入探索優(yōu)化和機器學習交叉領(lǐng)域,詳細介紹日常生活中許多系統(tǒng)和模型的優(yōu)化過程?!瘛〉?版亮點: 增加了關(guān)于提升、自適應遺憾和可接近性的章節(jié)● 擴大了優(yōu)化和學習理論的覆蓋面● 應用實例包含專家建議投資組合選擇、矩陣補全推薦系統(tǒng)和支持向量機訓練等● 指導學生完成練習

作者簡介

  普林斯頓大學計算機科學教授谷歌AI普林斯頓實驗室的聯(lián)合創(chuàng)始人和主任Elad Hazan教授主要研究學習機制的自動化及其高效的算法實現(xiàn)。研究領(lǐng)域集中在機器學習,并涉及數(shù)學優(yōu)化、博弈論、統(tǒng)計學和計算復雜性。

圖書目錄

第1章 導論       1
1.1 在線凸優(yōu)化設(shè)置     2
1.2 可用OCO建模的問題示例    3
1.2.1 從專家建議中預測   3
1.2.2 在線垃圾郵件過濾   4
1.2.3 在線最短路徑    5
1.2.4 投資組合選擇    6
1.2.5 矩陣補全和推薦系統(tǒng)    7
1.3 混合的開始:從專家建議中學習   7
1.3.1 加權(quán)多數(shù)算法    9
1.3.2 隨機加權(quán)多數(shù)    10
1.3.3 Hedge     12
1.4 文獻評述     13
1.5 練習      14
第2章 凸優(yōu)化基本概念     17
2.1 基本定義和設(shè)置     17
2.1.1 凸集上的投影    19
2.1.2 最優(yōu)條件介紹    20
2.2 梯度下降     21
2.2.1 Polyak 步長    23
2.2.2 度量與最優(yōu)值之間的距離    24
2.2.3 Polyak 步長分析    25
2.3 約束梯度/次梯度下降   27
2.4 非光滑和非強凸函數(shù)的歸約   30
2.4.1 光滑且非強凸函數(shù)的歸約    30
2.4.2 強凸非光滑函數(shù)的歸約    31
2.4.3 一般凸函數(shù)的歸約    34
2.5 示例:支持向量機訓練   34
2.6 文獻評述     37
2.7 練習      38
第3章 在線凸優(yōu)化一階算法     41
3.1 在線梯度下降     42
3.2 下界      44
3.3 對數(shù)遺憾     46
3.4 應用:隨機梯度下降    48
3.5 文獻評述     51
3.6 練習      51
第4章 二階方法      53
4.1 動機:通用投資組合選擇    53
4.1.1 主流投資組合理論    53
4.1.2 通用投資組合理論    54
4.1.3 持續(xù)再平衡投資組合    55
4.2 指數(shù)凹函數(shù)    56
4.3 指數(shù)加權(quán)OCO     58
4.4 在線牛頓步算法     60
4.5 文獻評述     66
4.6 練習      67
第5章 正則化       69
5.1 正則化函數(shù)    70
5.2 RFTL算法及其分析    71
5.2.1 元算法定義     72
5.2.2 遺憾界     73
5.3 在線鏡像下降     75
5.3.1 懶惰版在線鏡像下降與RFTL的等價性  77
5.3.2 鏡像下降的遺憾界    78
5.4 應用與特例    79
5.4.1 推導在線梯度下降    79
5.4.2 推導乘法更新    80
5.5 隨機正則化    81
5.5.1 凸損失擾動    82
5.5.2 線性代價函數(shù)擾動    86
5.5.3 專家建議的FPL算法    87
5.6 自適應梯度下降     89
5.7 文獻評述     95
5.8 練習      96
第6章 賭博機凸優(yōu)化     99
6.1 賭博機凸優(yōu)化設(shè)置     99
6.2 多臂賭博機問題    100
6.3 從有限信息歸約至完全信息   105
6.3.1 第一部分:使用無偏估計   105
6.3.2 第二部分:逐點梯度估計   107
6.4 無需梯度在線梯度下降    110
6.5 賭博機線性優(yōu)化的最優(yōu)遺憾算法  112
6.5.1 自和諧勢壘    113
6.5.2 一個近似最優(yōu)算法    114
6.6 文獻評述     117
6.7 練習      118
第7章 無投影算法       121
7.1 回顧:線性代數(shù)的相關(guān)概念   121
7.2 動機:推薦系統(tǒng)     122
7.3 條件梯度法     124
7.4 投影與線性優(yōu)化    128
7.5 在線條件梯度算法    130
7.6 文獻評述     134
7.7 練習      134
第8章 博弈,對偶與遺憾     137
8.1 線性規(guī)劃與對偶    138
8.2 零和博弈與均衡    139
8.3 馮 • 諾依曼定理證明    142
8.4 近似線性規(guī)劃     144
8.5 文獻評述     146
8.6 練習      146
第9章 學習理論,泛化性與在線凸優(yōu)化    149
9.1 統(tǒng)計學習理論     149
9.1.1 過擬合      150
9.1.2 免費午餐     151
9.1.3 學習問題示例    152
9.1.4 定義泛化性與可學習性   153
9.2 使用在線凸優(yōu)化的不可知學習   155
9.2.1 余項:度量集中和鞅    156
9.2.2 歸約的分析    158
9.3 學習與壓縮     160
9.4 文獻評述     161
9.5 練習      162
第10章 在變化的環(huán)境中學習      165
10.1 一個簡單的開始:動態(tài)遺憾    166
10.2 自適應遺憾的概念    167
10.3 跟蹤最好的專家     169
10.4 在線凸優(yōu)化的有效自適應遺憾   172
10.5 計算高效的方法     174
10.6 文獻評述    179
10.7 練習     180
第11章 Boosting與遺憾     183
11.1 Boosting 的問題     184
11.2 基于在線凸優(yōu)化的 Boosting   185
11.2.1 簡化設(shè)置    185
11.2.2 算法與分析    186
11.2.3 AdaBoost     188
11.2.4 補全路線圖    189
11.3 文獻評述    190
11.4 練習     191
第12章 在線Boosting     193
12.1 動機:向大量專家學習     193
12.1.1 示例:Boosting在線二進制分類   194
12.1.2 示例:個性化文章配置   195
12.2 情境學習模型     195
12.3 延拓算子    196
12.4 在線 Boosting方法    198
12.5 文獻評述    202
12.6 練習     202

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) www.afriseller.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號