注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)計(jì)算機(jī)科學(xué)理論與基礎(chǔ)知識(shí)擴(kuò)散模型:生成式AI模型的理論、應(yīng)用與代碼實(shí)踐

擴(kuò)散模型:生成式AI模型的理論、應(yīng)用與代碼實(shí)踐

擴(kuò)散模型:生成式AI模型的理論、應(yīng)用與代碼實(shí)踐

定 價(jià):¥89.00

作 者: 楊靈 等
出版社: 電子工業(yè)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買(mǎi)這本書(shū)可以去


ISBN: 9787121459856 出版時(shí)間: 2023-08-01 包裝: 平塑勒
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  本書(shū)深入淺出地介紹了擴(kuò)散模型的知識(shí),案例豐富,講解細(xì)致。第1章介紹AIGC與相關(guān)技術(shù),第2章從三個(gè)視角介紹擴(kuò)散模型的基本理論、算法,此外介紹了擴(kuò)散模型的神經(jīng)網(wǎng)絡(luò)架構(gòu)和代碼實(shí)現(xiàn)。第3章、第4章、第5章分別從高效采樣、似然優(yōu)化、數(shù)據(jù)結(jié)構(gòu)三個(gè)方面系統(tǒng)介紹了擴(kuò)散模型的特點(diǎn),以及后續(xù)的改進(jìn)工作。第6章討論了擴(kuò)散模型與其他生成模型的關(guān)聯(lián),包括變分自編碼器、生成對(duì)抗網(wǎng)絡(luò)、歸一化流、自回歸模型和基于能量的模型。第7章介紹了擴(kuò)散模型的應(yīng)用,包括計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理、時(shí)間數(shù)據(jù)建模、多模態(tài)學(xué)習(xí)、魯棒學(xué)習(xí)和跨學(xué)科應(yīng)用。第8章討論了擴(kuò)散模型的未來(lái),以及與GPT和大模型的關(guān)聯(lián)。本書(shū)適合高等院校計(jì)算機(jī)科學(xué)、人工智能和醫(yī)學(xué)、生物學(xué)等交叉學(xué)科專(zhuān)業(yè)的師生,以及相關(guān)人工智能應(yīng)用程序的開(kāi)發(fā)人員閱讀

作者簡(jiǎn)介

  楊靈,北京大學(xué)博士在讀,研究興趣是機(jī)器學(xué)習(xí)和生成式AI,作為第一作者在ICML、CVPR等人工智能頂會(huì)、頂刊發(fā)表過(guò)多篇論文,長(zhǎng)期擔(dān)任TPAMI、ICML、NeurIPS、CVPR、KDD、AAAI等多個(gè)頂級(jí)學(xué)術(shù)會(huì)議或期刊的程序委員會(huì)成員、審稿人?,F(xiàn)與OpenAI、斯坦福大學(xué)等AI研究機(jī)構(gòu)進(jìn)行長(zhǎng)期的科研合作。曾獲北京大學(xué)國(guó)家獎(jiǎng)學(xué)金、學(xué)術(shù)創(chuàng)新獎(jiǎng)、三好學(xué)生等獎(jiǎng)項(xiàng)。張至隆,北京大學(xué)碩士在讀,本科畢業(yè)于北京大學(xué)數(shù)學(xué)科學(xué)學(xué)院,研究興趣是擴(kuò)散模型。曾獲北京大學(xué)國(guó)琴獎(jiǎng)學(xué)金、優(yōu)秀畢業(yè)生、三好學(xué)生等獎(jiǎng)項(xiàng)。張文濤,蒙特利爾學(xué)習(xí)算法研究所(Mila)博士后研究員。博士畢業(yè)于北京大學(xué)計(jì)算機(jī)學(xué)院,師從崔斌教授。研究興趣為大規(guī)模圖學(xué)習(xí),作為第一作者在機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘和數(shù)據(jù)庫(kù)等領(lǐng)域發(fā)表論文10余篇。曾獲Apple PhD Fellowship、WAIC云帆獎(jiǎng)和北京大學(xué)優(yōu)秀博士學(xué)位論文等獎(jiǎng)項(xiàng)。崔斌,北京大學(xué)計(jì)算機(jī)學(xué)院教授、博士生導(dǎo)師、北京大學(xué)計(jì)算機(jī)學(xué)院副院長(zhǎng)。擔(dān)任中國(guó)計(jì)算機(jī)學(xué)會(huì)數(shù)據(jù)庫(kù)專(zhuān)委會(huì)副主任,VLDB理事會(huì)理事,IEEE TKDE、VLDB Journal、DAPD等國(guó)際期刊編委。中國(guó)計(jì)算機(jī)學(xué)會(huì)杰出會(huì)員、IEEE高級(jí)會(huì)員、ACM會(huì)員,2016年入選長(zhǎng)江學(xué)者特聘教授。

圖書(shū)目錄

第1 章 AIGC 與相關(guān)技術(shù)
1.1 AIGC 簡(jiǎn)介
1.2 擴(kuò)散模型簡(jiǎn)介
第2 章 擴(kuò)散模型基礎(chǔ)
2.1 去噪擴(kuò)散概率模型
2.2 基于分?jǐn)?shù)的生成模型
2.3 隨機(jī)微分方程
2.4 擴(kuò)散模型的架構(gòu)
第3 章 擴(kuò)散模型的高效采樣
3.1 微分方程
3.2 確定性采樣
3.2.1 SDE 求解器
3.2.2 ODE 求解器
3.3 基于學(xué)習(xí)的采樣
3.3.1 離散方式
3.3.2 截?cái)鄶U(kuò)散
3.3.3 知識(shí)蒸餾
第4 章 擴(kuò)散模型的似然最大化
4.1 似然函數(shù)最大化
4.2 加噪策略?xún)?yōu)化
4.3 逆向方差學(xué)習(xí)
4.4 精確的對(duì)數(shù)似然估計(jì)
第5 章 將擴(kuò)散模型應(yīng)用于具有特殊結(jié)構(gòu)的數(shù)據(jù)
5.1 離散數(shù)據(jù)
5.2 具有不變性結(jié)構(gòu)的數(shù)據(jù)
5.3 具有流形結(jié)構(gòu)的數(shù)據(jù)
5.3.1 流形已知
5.3.2 流形未知
第6 章 擴(kuò)散模型與其他生成模型的關(guān)聯(lián)
6.1 變分自編碼器與擴(kuò)散模型
6.2 生成對(duì)抗網(wǎng)絡(luò)與擴(kuò)散模型
6.3 歸一化流與擴(kuò)散模型
6.4 自回歸模型與擴(kuò)散模型
6.5 基于能量的模型與擴(kuò)散模型
第7 章 擴(kuò)散模型的應(yīng)用
7.1 無(wú)條件擴(kuò)散模型與條件擴(kuò)散模型
7.2 計(jì)算機(jī)視覺(jué)
7.2.1 圖像超分辨率、圖像修復(fù)和圖像翻譯
7.2.2 語(yǔ)義分割
7.2.3 視頻生成
7.2.4 點(diǎn)云補(bǔ)全和點(diǎn)云生成
7.2.5 異常檢測(cè)
7.3 自然語(yǔ)言處理
7.4 時(shí)間數(shù)據(jù)建模
7.4.1 時(shí)間序列插補(bǔ)
7.4.2 時(shí)間序列預(yù)測(cè)
7.5 多模態(tài)學(xué)習(xí)
7.5.1 文本到圖像的生成
7.5.2 文本到音頻的生成
7.5.3 場(chǎng)景圖到圖像的生成
7.5.4 文本到3D 內(nèi)容的生成
7.5.5 文本到人體動(dòng)作的生成
7.5.6 文本到視頻的生成
7.6 魯棒學(xué)習(xí)
7.7 跨學(xué)科應(yīng)用
7.7.1 人工智能藥物研發(fā)
7.7.2 醫(yī)學(xué)影像
第8 章 擴(kuò)散模型的未來(lái)——GPT 及大模型
8.1 預(yù)訓(xùn)練技術(shù)簡(jiǎn)介
8.1.1 生成式預(yù)訓(xùn)練和對(duì)比式預(yù)測(cè)練
8.1.2 并行訓(xùn)練技術(shù)
8.1.3 微調(diào)技術(shù)
8.2 GPT 及大模型
8.2.1 GPT-1
8.2.2 GPT-2
8.2.3 GPT-3 和大模型
8.2.4 InstructGPT 和ChatGPT
8.2.5 Visual ChatGPT
8.3 基于GPT 及大模型的擴(kuò)散模型
8.3.1 算法研究
8.3.2 應(yīng)用范式
相關(guān)資料說(shuō)明

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) www.afriseller.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)