本書(shū)系統(tǒng)地闡述了微積分在人工智能領(lǐng)域的核心作用,從基礎(chǔ)理論到實(shí)際應(yīng)用,內(nèi)容豐富且深入。全書(shū)共13章,涵蓋微積分概述、函數(shù)與極限、導(dǎo)數(shù)與微分、積分及其應(yīng)用、多元微積分等基礎(chǔ)知識(shí),同時(shí)深入探討了數(shù)據(jù)預(yù)處理、構(gòu)建網(wǎng)絡(luò)模型、模型優(yōu)化、模型評(píng)估與解釋等核心技術(shù),并延伸至自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)、推薦系統(tǒng)和強(qiáng)化學(xué)習(xí)等前沿應(yīng)用場(chǎng)景。通過(guò)理論講解、模型分析和代碼實(shí)踐,深入剖析微積分在算法建模、性能優(yōu)化和結(jié)果解釋中的關(guān)鍵作用。
本書(shū)配有豐富的案例分析、課后練習(xí)及可視化示例,適合人工智能從業(yè)者、研究人員及相關(guān)領(lǐng)域?qū)W生學(xué)習(xí)和參考,為邁向更高水平的AI研究與開(kāi)發(fā)奠定堅(jiān)實(shí)基礎(chǔ)。
王圣強(qiáng)
----------------------------
王圣強(qiáng),華東理工大學(xué)數(shù)學(xué)學(xué)院副教授、數(shù)學(xué)與應(yīng)用數(shù)學(xué)系副主任,復(fù)旦大學(xué)數(shù)學(xué)科學(xué)學(xué)院理學(xué)博士,先后榮獲第五屆上海高校青年教師教學(xué)競(jìng)賽一等獎(jiǎng),上海市教學(xué)能手,校優(yōu)秀共產(chǎn)黨員,校青年五四獎(jiǎng)?wù)拢=虒W(xué)新星、校研究生課程優(yōu)秀任課教師等榮譽(yù)。
薛棟
----------------------------
薛棟,華東理工大學(xué)信息科學(xué)與技術(shù)學(xué)院副教授/碩士生導(dǎo)師,德國(guó)慕尼黑工業(yè)大學(xué)工學(xué)博士,“上海市高層次青年人才計(jì)劃”、“浦江人才計(jì)劃”獲得者。先后在荷蘭格羅寧根大學(xué)(RUG)、德國(guó)卡爾斯魯厄理工大學(xué)(KIT)從事教師和研究員工作。長(zhǎng)期從事基于人工智能與大數(shù)據(jù)相關(guān)研究,包括自然語(yǔ)言處理與大語(yǔ)言模型、工業(yè)互聯(lián)網(wǎng)與工業(yè)軟件、復(fù)雜網(wǎng)絡(luò)與多智能體系統(tǒng)等課題。以第一作者或通訊作者在IEEE TAC、IEEE TSP、IEEE TNSE等國(guó)際期刊上發(fā)表SCI論文30余篇,主持和參與完成多項(xiàng)包括國(guó)家自然科學(xué)基金面上項(xiàng)目、上海市人才計(jì)劃項(xiàng)目、企業(yè)科研攻關(guān)項(xiàng)目等在內(nèi)的課題。主講課程包括本科必修課《人工智能數(shù)學(xué)基礎(chǔ)》和研究生課程《自主無(wú)人系統(tǒng)》以及《工業(yè)互聯(lián)網(wǎng)關(guān)鍵技術(shù)》。
段兆陽(yáng)
----------------------------
段兆陽(yáng),華東理工大學(xué)信息科學(xué)與技術(shù)學(xué)院講師/碩士生導(dǎo)師、博士,長(zhǎng)期從事基于人工智能與大數(shù)據(jù)相關(guān)研究,包括自然語(yǔ)言處理與大語(yǔ)言模型、工業(yè)互聯(lián)網(wǎng)與工業(yè)軟件、復(fù)雜網(wǎng)絡(luò)與多智能體系統(tǒng)等課題,主講非線性系統(tǒng)理論及應(yīng)用。
周濤
----------------------------
周濤,哈爾濱工業(yè)大學(xué)計(jì)算機(jī)碩士,現(xiàn)就職于阿里達(dá)摩院基礎(chǔ)大模型研發(fā)部門(mén),負(fù)責(zé)大模型預(yù)訓(xùn)練、參數(shù)調(diào)優(yōu)和混合檢索增強(qiáng)工作。精通Python、C、C++、Java、C#開(kāi)發(fā)語(yǔ)言,擅長(zhǎng)人工智能、神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)技術(shù)。近年來(lái),隨著AI技術(shù)的蓬勃發(fā)展,個(gè)人團(tuán)隊(duì)從事于將人工智能技術(shù)應(yīng)用于智能制造中,嘗試將人工智能用在工業(yè)制造、機(jī)器人、物聯(lián)網(wǎng)開(kāi)發(fā)駛中,并且取得了不錯(cuò)的成績(jī)。
目 錄
第1章
微積分概述
1.1 微積分的歷史背景與發(fā)展 002
1.1.1 微積分的起源 002
1.1.2 經(jīng)典數(shù)學(xué)家的貢獻(xiàn) 003
1.1.3 微積分在現(xiàn)代科學(xué)中的應(yīng)用 006
1.2 微積分的基本概念 010
1.2.1 函數(shù)與極限的基本定義 011
1.2.2 導(dǎo)數(shù)與微分的基本思想 011
1.2.3 積分與面積的基本概念 011
1.3 微積分的核心理論 011
1.3.1 牛頓-萊布尼茨公式 012
1.3.2 連續(xù)性與可導(dǎo)性的概念 012
1.3.3 無(wú)窮小與無(wú)窮大的應(yīng)用 012
1.4 微積分在科學(xué)與工程中的應(yīng)用 012
1.4.1 微積分在物理學(xué)中的應(yīng)用 013
1.4.2 微積分在工程學(xué)中的應(yīng)用 013
1.4.3 微積分在計(jì)算科學(xué)中的應(yīng)用 013
1.5 微積分在人工智能中的重要性 013
1.5.1 微積分在機(jī)器學(xué)習(xí)中的作用 014
1.5.2 微積分在深度學(xué)習(xí)中的應(yīng)用 014
1.5.3 微積分在優(yōu)化算法中的關(guān)鍵性 014
1.6 課后練習(xí) 014
第2章
函數(shù)與極限
2.1 函數(shù)的基本概念 017
2.1.1 函數(shù)的定義與分類 017
2.1.2 常見(jiàn)的函數(shù)類型 017
2.1.3 繪制不同類型的函數(shù)圖像 018
2.2 函數(shù)的性質(zhì) 021
2.2.1 函數(shù)的單調(diào)性與凹凸性 021
2.2.2 極值、駐點(diǎn)與拐點(diǎn)分析 021
2.2.3 查找函數(shù)的極值和拐點(diǎn)并繪制圖像 022
2.3 極限的概念 025
2.3.1 極限的定義與基本性質(zhì) 025
2.3.2 左極限、右極限與無(wú)窮極限 027
2.3.3 無(wú)窮小與無(wú)窮大的比較與應(yīng)用 029
2.4 極限的求解方法 032
2.4.1 代入法與因式分解法 032
2.4.2 分母有理化與洛必達(dá)法則 033
2.4.3 利用 SymPy 求解函數(shù)的極限并驗(yàn)證結(jié)果 034
2.5 連續(xù)性與可導(dǎo)性 034
2.5.1 函數(shù)的連續(xù)性與間斷點(diǎn) 034
2.5.2 可導(dǎo)函數(shù)的條件、性質(zhì)與應(yīng)用 035
2.5.3 用Python分析函數(shù)的連續(xù)性與
可導(dǎo)性 036
2.6 課后練習(xí) 037
第3章
導(dǎo)數(shù)與微分
3.1 導(dǎo)數(shù)的基本概念 039
3.1.1 導(dǎo)數(shù)的定義與幾何意義 039
3.1.2 導(dǎo)數(shù)的物理意義與在速度、加速度中的應(yīng)用 039
3.1.3 Python 實(shí)例:利用 SymPy 計(jì)算函數(shù)的導(dǎo)數(shù)并繪制切線與速度圖 040
3.2 導(dǎo)數(shù)的計(jì)算規(guī)則 042
3.2.1 和差、乘積與商的求導(dǎo)法則 042
3.2.2 鏈?zhǔn)椒▌t與隱函數(shù)求導(dǎo)法 043
3.2.3 Python 實(shí)例:使用 SymPy 實(shí)現(xiàn)復(fù)雜函數(shù)的求導(dǎo)并分析 043
3.3 常見(jiàn)函數(shù)的導(dǎo)數(shù) 045
3.3.1 多項(xiàng)式函數(shù)的導(dǎo)數(shù) 045
3.3.2 指數(shù)與對(duì)數(shù)函數(shù)的導(dǎo)數(shù) 046
3.3.3 三角函數(shù)與反三角函數(shù)的導(dǎo)數(shù) 046
3.3.4 Python 實(shí)例:繪制常見(jiàn)函數(shù)的導(dǎo)數(shù)
圖像并分析其變化趨勢(shì) 047
3.4 高階導(dǎo)數(shù) 052
3.4.1 高階導(dǎo)數(shù)的定義與應(yīng)用 052
3.4.2 函數(shù)的凹凸性、拐點(diǎn)與泰勒級(jí)數(shù)展開(kāi) 052
3.4.3 Python 實(shí)例:利用高階導(dǎo)數(shù)與泰勒
級(jí)數(shù)分析函數(shù)行為 053
3.5 微分的概念 055
3.5.1 微分的定義、幾何意義與線性近似 056
3.5.2 微分在誤差估計(jì)與近似計(jì)算中的應(yīng)用 056
3.5.3 Python 實(shí)例:使用微分法近似計(jì)算
函數(shù)值與誤差分析 057
3.6 課后練習(xí) 059
第4章
積分及其應(yīng)用
4.1 積分的基本概念 061
4.1.1 不定積分的定義與性質(zhì) 061
4.1.2 積分的幾何意義與物理意義 061
4.1.3 利用 SymPy 計(jì)算簡(jiǎn)單函數(shù)的
不定積分 062
4.2 定積分 062
4.2.1 定積分的定義與基本性質(zhì) 062
4.2.2 定積分的計(jì)算方法 063
4.2.3 使用 SciPy 計(jì)算定積分并進(jìn)行數(shù)值驗(yàn)證 064
4.3 積分與面積、體積 065
4.3.1 積分在求平面圖形面積中的應(yīng)用 065
4.3.2 積分在求旋轉(zhuǎn)體體積中的應(yīng)用 065
4.3.3 Python 實(shí)例:計(jì)算復(fù)雜圖形的面積與體積并進(jìn)行可視化 066
4.4 積分與概率與統(tǒng)計(jì) 069
4.4.1 概率密度函數(shù)與積分的關(guān)系 069
4.4.2 積分在期望、方差與協(xié)方差計(jì)算中的應(yīng)用 070
4.4.3 利用積分求解連續(xù)型隨機(jī)變量的期望與方差 070
4.5 微積分基本定理 072
4.5.1 牛頓-萊布尼茨公式 072
4.5.2 微積分基本定理的推導(dǎo)與應(yīng)用 073
4.5.3 利用牛頓-萊布尼茨公式進(jìn)行積分驗(yàn)證 074
4.6 積分在人工智能中的應(yīng)用 077
4.6.1 損失函數(shù)的積分表示 077
4.6.2 積分在正則化與模型復(fù)雜度控制中的應(yīng)用 078
4.6.3 利用積分計(jì)算正則化項(xiàng)并分析模型復(fù)雜度 079
4.7 數(shù)值積分 081
4.7.1 數(shù)值積分方法 081
4.7.2 數(shù)值積分的誤差分析與改進(jìn) 082
4.7.3 實(shí)現(xiàn)并比較不同數(shù)值積分方法的效果 082
4.8 課后練習(xí) 085
第5章
多元微積分
5.1 多元函數(shù) 087
5.1.1 多元函數(shù)的定義與表示方法 087
5.1.2 多元函數(shù)的連續(xù)性與可微性 087
5.1.3 繪制多元函數(shù)并觀察其連續(xù)性與
可微性 088
5.2 偏導(dǎo)數(shù) 091
5.2.1 偏導(dǎo)數(shù)的定義與幾何意義 091
5.2.2 高階偏導(dǎo)數(shù)、混合偏導(dǎo)數(shù)與雅可比矩陣 092
5.2.3 利用 SymPy 計(jì)算多元函數(shù)的
偏導(dǎo)數(shù) 094
5.3 方向?qū)?shù)與梯度 096
5.3.1 方向?qū)?shù)的定義與計(jì)算方法 096
5.3.2 梯度向量、方向?qū)?shù)與其幾何意義 097
5.3.3 計(jì)算多元函數(shù)的方向?qū)?shù)與梯度 098
5.4 多元函數(shù)的極值 100
5.4.1 駐點(diǎn)、臨界點(diǎn)與鞍點(diǎn)的概念 100
5.4.2 二次型在極值判定中的作用 101
5.4.3 利用梯度下降法求多元函數(shù)的極值并
分析收斂性 102
5.5 拉格朗日乘數(shù)法 106
5.5.1 拉格朗日乘數(shù)法的原理與推導(dǎo) 106
5.5.2 拉格朗日乘數(shù)法在約束優(yōu)化中的應(yīng)用 107
5.5.3 用拉格朗日乘數(shù)法求解約束優(yōu)化問(wèn)題 109
5.6 多重積分 111
5.6.1 二重積分與三重積分的定義與計(jì)算 111
5.6.2 多重積分在計(jì)算體積、質(zhì)量與重心中的應(yīng)用 113
5.6.3 利用多重積分計(jì)算復(fù)雜幾何體的體積與重心 114
5.7 課后練習(xí) 115
第6章
數(shù)據(jù)預(yù)處理
6.1 特征選擇和降維 117
6.1.1 特征選擇的微積分方法 117
6.1.2 主成分分析 119
6.2 缺失值處理與插補(bǔ) 124
6.2.1 缺失值處理介紹 124
6.2.2 插補(bǔ)方法中的微積分應(yīng)用 125
6.3 數(shù)據(jù)平滑與去噪 128
6.3.1 數(shù)據(jù)平滑 128
6.3.2 去噪算法中的微積分方法 132
6.4 數(shù)據(jù)轉(zhuǎn)換與特征工程 134
6.4.1 數(shù)據(jù)轉(zhuǎn)換的微積分方法 134
6.4.2 特征工程 137
6.5 數(shù)據(jù)預(yù)處理中的微積分優(yōu)化 139
6.5.1 優(yōu)化方法的基本概念 140
6.5.2 梯度下降法 140
6.5.3 牛頓法 142
6.6 課后練習(xí) 144
第7章
構(gòu)建網(wǎng)絡(luò)模型
7.1 網(wǎng)絡(luò)模型介紹 146
7.1.1 機(jī)器學(xué)習(xí)和深度學(xué)習(xí) 146
7.1.2 網(wǎng)絡(luò)模型的定義與分類 148
7.2 構(gòu)建機(jī)器學(xué)習(xí)模型 149
7.2.1 構(gòu)建線性回歸模型 149
7.2.2 構(gòu)建邏輯回歸模型 160
7.2.3 支持向量機(jī) 163
7.2.4 決策樹(shù) 168
7.2.5 隨機(jī)森林 172
7.2.6 K-近鄰算法模型 175
7.3 構(gòu)建深度學(xué)習(xí)模型 177
7.3.1 前饋神經(jīng)網(wǎng)絡(luò) 177
7.3.2 CNN在計(jì)算機(jī)視覺(jué)中的應(yīng)用 181
7.3.3 循環(huán)神經(jīng)網(wǎng)絡(luò) 184
7.3.4 長(zhǎng)短期記憶網(wǎng)絡(luò) 188
7.3.5 生成對(duì)抗網(wǎng)絡(luò) 191
7.4 課后練習(xí) 195
第8章
模型優(yōu)化
8.1 模型優(yōu)化介紹 197
8.2 梯度下降算法 197
8.2.1 梯度下降法介紹 198
8.2.2 微積分在梯度計(jì)算中的應(yīng)用 198
8.2.3 隨機(jī)梯度下降 202
8.2.4 動(dòng)量法 205
8.2.5 自適應(yīng)學(xué)習(xí)率算法 207
8.3 優(yōu)化算法 210
8.3.1 牛頓法與擬牛頓法 210
8.3.2 自適應(yīng)優(yōu)化算法 214
8.4 正則化技術(shù) 219
8.4.1 正則化介紹 219
8.4.2 L1正則化 220
8.4.3 L2正則化 223
8.4.4 Dropout 226
8.4.5 彈性網(wǎng) 229
8.5 超參數(shù)優(yōu)化 232
8.5.1 超參數(shù)的定義與選擇 232
8.5.2 貝葉斯優(yōu)化 233
8.6 課后練習(xí) 236
第9章
模型評(píng)估與解釋
9.1 模型評(píng)估的基本概念 238
9.1.1 評(píng)估指標(biāo)的定義與選擇 238
9.1.2 評(píng)估指標(biāo)的數(shù)學(xué)基礎(chǔ) 238
9.2 性能度量與損失函數(shù) 242
9.2.1 損失函數(shù)與性能度量的關(guān)系 242
9.2.2 微積分在性能度量中的應(yīng)用 243
9.3 模型解釋性 246
9.3.1 模型解釋性的基本概念 246
9.3.2 微積分在模型解釋中的應(yīng)用:梯度的角色 247
9.4 靈敏度分析與梯度檢查 250
9.4.1 靈敏度分析 250
9.4.2 梯度檢查 254
9.5 特征重要性分析 258
9.6 誤差分析與模型診斷 260
9.6.1 誤差分析介紹 261
9.6.2 模型診斷 263
9.7 課后練習(xí) 267
第10章
自然語(yǔ)言處理和微積分
10.1 自然語(yǔ)言處理基礎(chǔ) 269
10.1.1 NLP的基本概念與應(yīng)用領(lǐng)域 269
10.1.2 微積分在 NLP 中的作用概述 270
10.2 詞嵌入 270
10.2.1 詞嵌入介紹 270
10.2.2 詞嵌入模型 271
10.3 表示學(xué)習(xí) 274
10.3.1 表示學(xué)習(xí)介紹 274
10.3.2 微積分在表示學(xué)習(xí)中的應(yīng)用 275
10.4 語(yǔ)言模型與序列建模 277
10.4.1 語(yǔ)言模型的定義與作用 277
10.4.2 微積分在語(yǔ)言模型中的應(yīng)用 278
10.5 注意力機(jī)制與Transformer 281
10.5.1 微積分在注意力機(jī)制中的應(yīng)用 281
10.5.2 Transformer的基本概念和微積分的應(yīng)用 283
10.6 情感分析與文本分類 287
10.6.1 情感分析與文本分類的基本方法 288
10.6.2 微積分在情感分析與文本分類中的應(yīng)用 288
10.7 課后練習(xí) 294
第11章
人工智能視覺(jué)技術(shù)和微積分
11.1 計(jì)算機(jī)視覺(jué)基礎(chǔ) 296
11.1.1 計(jì)算機(jī)視覺(jué)的定義與應(yīng)用領(lǐng)域 296
11.1.2 微積分在計(jì)算機(jī)視覺(jué)中的作用 296
11.2 圖像處理與變換 297
11.2.1 常用的圖像處理技術(shù) 297
11.2.2 梯度計(jì)算與邊緣檢測(cè) 297
11.2.3 圖像增強(qiáng) 300
11.2.4 幾何變換和圖像變換 302
11.2.5 圖像分割 305
11.3 特征提取與描述 308
11.3.1 特征提取的基本方法 308
11.3.2 微積分在特征提取中的應(yīng)用 309
11.4 卷積神經(jīng)網(wǎng)絡(luò)(CNN) 316
11.4.1 CNN的基本結(jié)構(gòu)與應(yīng)用 317
11.4.2 微積分在 CNN 中的應(yīng)用 317
11.5 目標(biāo)檢測(cè)與分割 320
11.5.1 目標(biāo)檢測(cè)的基本方法 320
11.5.2 目標(biāo)分割的基本方法 324
11.6 圖像生成與變換 327
11.6.1 圖像生成模型的基本概念 327
11.6.1 微積分在圖像生成中的應(yīng)用 328
11.7 課后練習(xí) 333
第12章
推薦系統(tǒng)和微積分
12.1 推薦系統(tǒng)概述 336
12.1.1 推薦系統(tǒng)的定義與分類 336
12.1.2 推薦系統(tǒng)的應(yīng)用領(lǐng)域 337
12.1.3 微積分在推薦系統(tǒng)中的作用概述 337
12.2 推薦算法基礎(chǔ) 338
12.2.1 基于內(nèi)容的推薦 338
12.2.2 基于協(xié)同過(guò)濾的推薦 341
12.3 基于標(biāo)簽的推薦 344
12.3.1 獲取用戶的標(biāo)簽 345
12.3.2 基于用戶興趣標(biāo)簽的推薦算法 345
12.3.3 基于物品標(biāo)簽的推薦算法 348
12.4 基于神經(jīng)網(wǎng)絡(luò)的推薦模型 351
12.4.1 深度學(xué)習(xí)在推薦系統(tǒng)中的應(yīng)用 351
12.4.2 基于多層感知器的推薦模型 352
12.4.3 基于卷積神經(jīng)網(wǎng)絡(luò)的推薦模型 355
12.4.4 基于循環(huán)神經(jīng)網(wǎng)絡(luò)的推薦模型 358
12.4.5 基于自注意力機(jī)制的推薦模型 363
12.5 課后練習(xí) 367
第13章
強(qiáng)化學(xué)習(xí)和微積分
13.1 強(qiáng)化學(xué)習(xí)基礎(chǔ) 369
13.1.1 強(qiáng)化學(xué)習(xí)的核心特點(diǎn) 369
13.1.2 強(qiáng)化學(xué)習(xí)與其他機(jī)器學(xué)習(xí)方法的區(qū)別 370
13.1.3 微積分在強(qiáng)化學(xué)習(xí)中的作用 370
13.2 馬爾可夫決策過(guò)程 371
13.2.1 MDP的核心思想 371
13.2.2 MDP的形式化定義 372
13.2.3 貝爾曼方程 375
13.3 蒙特卡洛方法 381
13.3.1 蒙特卡洛預(yù)測(cè)的核心思想 381
13.3.2 探索與策略改進(jìn) 385
13.4 Q學(xué)習(xí)與貝爾曼方程 387
13.4.1 Q-learning的動(dòng)作值函數(shù) 387
13.4.2 強(qiáng)化學(xué)習(xí)中的Q-learning 391
13.5 深度Q網(wǎng)絡(luò)算法 394
13.5.1 DQN算法介紹 394
13.5.2 雙重深度Q網(wǎng)絡(luò)算法 399
13.6 競(jìng)爭(zhēng)深度Q網(wǎng)絡(luò)算法 404
13.6.1 Dueling DQN網(wǎng)絡(luò)架構(gòu) 404
13.6.2 微積分在Dueling DQN中的作用 404
13.7 課后練習(xí) 408