[美]安德魯·格拉斯納:
擁有北卡羅來納州教堂山分校計算機科學博士學位,他是一位專門從事計算機圖形學和深度學習的研究的科學家。他目前是Weta Digital(維塔數(shù)碼)的高級研究科學家,致力于將深度學習與電影和電視世界級視覺效果的制作相結合。他曾在IBM沃森實驗室、施樂PARC和微軟研究所等實驗室擔任研究員。同時他也是最早的圖形研究雜志ACM-TOG9(計算機圖形學國際頂級期刊)的主編,和最早的計算機圖形學會議SIGGRAPH(Special Interest Group for Computer GRAPHICS,由美國計算機協(xié)會計算機圖形專業(yè)組組織的計算機圖形學頂級年度會議)的技術論文主席。他撰寫或編輯了十幾本關于計算機圖形學的技術書籍,包括著名的Principles of Digital Image Synthesis、Graphics Gems系列等。
譯者簡介:
趙鳴,2006年獲華中師范大學計算機輔助教學碩士學位,2015年獲哈爾濱工業(yè)大學計算機應用方向博士學位,現(xiàn)任長江大學教授。目前主持在研省部級項目四項,橫向項目兩項。他的研究興趣包括計算智能、圖像和信號處理、模式識別等。他是荊州市智慧警務專家成員,也是IEEE高級成員
曾小健,出版AI圖書多部,在量化金融和AI領域有多年經(jīng)驗,計算機博士在讀,CSDN博客專家,多個大模型開源項目源碼貢獻人,曾在華為云、中關村在線等多所大型互聯(lián)網(wǎng)科技企業(yè)擔任重要職務,GitHub:ArtificialZeng; CSDN:AI生成曾小健。
李現(xiàn)偉,日本早稻田大學博士畢業(yè),碩士生導師,主要從事大數(shù)據(jù)、機器學習、物聯(lián)網(wǎng)等方向的教學與工作。發(fā)表SCI論文20余篇,主持和參與安徽省自然科學基金、安徽省重點研究與開發(fā)計劃、安徽省教育廳優(yōu)秀青年基金項目等多項。獲得中國發(fā)明協(xié)會創(chuàng)業(yè)獎成果獎二等獎,獲得綠色礦山科學技術獎二等獎一項。
任玉柱,畢業(yè)于國防科學技術大學網(wǎng)絡工程專業(yè),主要研究方向為信息安全,機器學習,人工智能,發(fā)表相關領域研究文章3篇。
詳細目錄
致謝
前言
這本書是為誰準備的···············································································
這本書沒有復雜的數(shù)學和代碼
如果你想要的話,這里有代碼
圖片也可以找到!
勘誤
關于本書
第1部分:基礎理論
第2部分:初級機器學習
第3部分:深度學習的基礎
第4部分:進階知識
最后的話·····························································································
第一部分 基礎理論 1
第1 章 機器學習技術概述 2
1.1 專家系統(tǒng)
1.2 監(jiān)督學習
1.3 無監(jiān)督學習
1.4 強化學習
1.5 深度學習
1.6 本章總結
第2 章 統(tǒng)計學基礎 11
2.1 描述隨機性
2.2 隨機變量與概率分布
2.3 常見的分布
詳細目錄 VII
2.3.1 連續(xù)分布
2.3.2 離散分布
2.4 隨機值的集合
2.4.1 期望值
2.4.2 依賴
2.4.3 獨立同分布變量
2.5 采樣與替換
2.5.1 替換采樣法
2.5.2 無替換采樣法
2.6 自采樣法
2.7 協(xié)方差和相關性
2.7.1 協(xié)方差
2.7.2 相關性
2.8 統(tǒng)計數(shù)據(jù)的局限性
2.9 高維空間
2.10 本章總結
第3 章 性能度量 37
3.1 不同類型的概率
3.1.1 投擲飛鏢
3.1.2 簡單概率
3.1.3 條件概率
3.1.4 聯(lián)合概率
3.1.5 邊緣概率
3.2 評價正確性
3.2.1 樣本分類
3.2.2 混淆矩陣
3.2.3 錯誤的特征
3.2.4 評價正確與否
3.2.5 準確率
3.2.6 精度
3.2.7 召回率
3.2.8 精度與召回率的權衡
3.2.9 誤導性結果
3.2.10 F1分數(shù)
3.2.11 關于這些指標
3.2.12 其他評價方式
3.3 正確構造混淆矩陣
3.4 本章總結
第4 章 貝葉斯方法 66
4.1 頻率法與貝葉斯概率
4.1.1 頻率法
4.1.2 貝葉斯方法
4.1.3 頻率派與貝葉斯派
4.2 頻率法拋擲硬幣
4.3 貝葉斯方法拋擲硬幣
4.3.1 啟發(fā)性的例子
4.3.2 繪制拋擲硬幣的概率
4.3.3 用概率表示拋擲硬幣
4.3.4 貝葉斯公式
4.3.5 關于貝葉斯公式的討論
4.4 貝葉斯公式與混淆矩陣
4.5 再論貝葉斯公式
4.5.1 后驗-先驗循環(huán)
4.5.2 貝葉斯循環(huán)實戰(zhàn)
4.6 多重假設
4.7 本章總結
第5 章 曲線和曲面
5.1 函數(shù)的性質(zhì)
5.2 導數(shù)
5.2.1 最大值和最小值
5.2.2 切線
5.2.3 用導數(shù)求最小值和最大值
5.3 梯度
5.3.1 水、重力和梯度
5.3.2 用梯度求最大值和最小值
5.3.3 鞍點
5.4 本章總結
第6 章 信息論
6.1 信息帶給我們的驚訝感
6.1.1 為什么會驚訝
6.1.2 信息解密
6.2 衡量信息量
6.3 自適應碼
6.3.1 摩斯電碼
6.3.2 調(diào)整摩斯電碼
6.4 熵
6.5 交叉熵
6.5.1 兩種自適應碼
6.5.2 使用編碼
6.5.3 實踐中的交叉熵 ·
6.6 KL散度
6.7 本章總結
第二部分 初級機器學習
第7 章 分類
7.1 二維空間的二元分類問題
7.2 二維空間的多分類問題
7.3 多元分類
7.3.1 一對多
7.3.2 一對一
7.4 聚類
7.5 維度詛咒
7.5.1 維度和密度
7.5.2 高維奇異性
7.6 本章總結
第8 章 訓練和測試
8.1 訓練
8.2 測試
8.2.1 測試集
8.2.2 驗證集
8.3 交叉驗證
8.4 k-Fold交叉驗證法
8.5 本章總結
第9 章 過擬合與欠擬合
9.1 找到一個好的擬合
9.1.1 過擬合
9.1.2 欠擬合
9.2 檢測和解決過擬合
9.2.1 提前停止
9.2.2 正則化
9.3 偏差和方差
9.3.1 匹配基礎數(shù)據(jù)
9.3.2 高偏差與低方差
9.3.3 低偏差與高方差
9.3.4 比較曲線
9.4 用貝葉斯方法擬合直線
9.5 本章總結
第10 章 數(shù)據(jù)預處理
10.1 基本數(shù)據(jù)清洗
10.2 數(shù)據(jù)一致性
10.3 數(shù)據(jù)類型
10.4 獨熱編碼
10.5 歸一化與標準化
10.5.1 歸一化
10.5.2 標準化
10.5.3 記錄轉(zhuǎn)換過程
10.6 其他轉(zhuǎn)換方式
10.6.1 切片處理
10.6.2 樣本切片
10.6.3 特征切片
10.6.4 元素切片
10.7 逆變換
10.8 交叉驗證中的信息泄露
10.9 收縮數(shù)據(jù)集
10.9.1 特征選擇
10.9.2 降維
10.10 主成分分析
10.10.1 簡單圖像的PCA處理
10.10.2 真實圖像的主成分分析
10.11 本章總結
第11 章 分類器
11.1 常見分類器
11.2 k-最近鄰算法
11.3 決策樹
11.3.1 決策樹概覽
11.3.2 決策樹構建
11.3.3 過擬合樹
11.3.4 拆分節(jié)點
11.4 支持向量機
11.4.1 基礎算法
11.4.2 支持向量機核函數(shù)
11.5 樸素貝葉斯
11.6 分類器的對比
11.7 本章總結
第12 章 集成學習
12.1 投票
12.2 決策樹的集成
12.2.1 裝袋算法
12.2.2 隨機森林
12.2.3 極端隨機樹集成
12.3 助推法
12.4 本章總結
第三部分 深度學習的基礎
第13 章 神經(jīng)網(wǎng)絡
13.1 生物神經(jīng)元
13.2 人工神經(jīng)元
13.2.1 感知器
13.2.2 現(xiàn)代人工神經(jīng)元
13.3 繪制神經(jīng)元
13.4 前饋網(wǎng)絡
13.5 神經(jīng)網(wǎng)絡圖
13.6 初始化權重
13.7 深度神經(jīng)網(wǎng)絡
13.8 全連接層
13.9 張量
13.10 防止坍縮
13.11 激活函數(shù)
13.11.1 直線函數(shù)
13.11.2 階躍函數(shù)
13.11.3 分段線性函數(shù)
13.11.4 平滑函數(shù)
13.11.5 激活函數(shù)圖像總結
13.11.6 比較激活函數(shù)
13.12 Softmax函數(shù)
13.13 本章總結
第14 章 反向傳播算法
14.1 訓練過程概述
14.1.1 降低誤差
14.1.2 一種緩慢的學習算法
14.1.3 梯度下降
14.2 快速開始
14.3 微型神經(jīng)網(wǎng)絡中的反向傳播
14.3.1 尋找輸出神經(jīng)元的增量
14.3.2 使用來調(diào)整權重
14.3.3 其他神經(jīng)元的值
14.4 大型神經(jīng)網(wǎng)絡中的反向傳播算法
14.5 學習率
14.5.1 構建二分類器
14.5.2 選擇學習率
14.5.3 更小的學習率
14.6 本章總結
第15 章 優(yōu)化器
15.1 用二維曲線表示誤差
15.2 調(diào)整學習率
15.2.1 恒定大小的更新
15.2.2 隨著時間的推移改變學習率
15.2.3 衰減調(diào)整策略
15.3 更新策略
15.3.1 批量梯度下降法
15.3.2 隨機梯度下降法
15.3.3 小批次梯度下降法
15.4 梯度下降的變體
15.4.1 動量
15.4.2 內(nèi)斯特羅夫動量
15.4.3 AdaGrad算法
15.4.4 Adadelta和RMSProp算法
15.4.5 Adam算法
15.5 優(yōu)化器的選擇
15.6 正則化
15.6.1 Dropout
15.6.2 BatchNorm
15.7 本章總結
第四部分 進階知識
第16 章 卷積神經(jīng)網(wǎng)絡
16.1 初識卷積
16.1.1 顏色檢測
16.1.2 權重共享
16.1.3 大一點的卷積核
16.1.4 卷積核和特征
16.1.5 填充
16.2 多維卷積
16.3 多重卷積核
16.4 卷積層
16.4.1 一維卷積
16.4.2 11卷積
16.5 更改輸出大小
16.5.1 池化
16.5.2 跨步前進
16.5.3 轉(zhuǎn)置卷積
16.6 卷積核的層次結構
16.6.1 簡化假設
16.6.2 尋找面具
16.6.3 尋找眼睛、鼻子和嘴巴
16.6.4 應用卷積核
16.7 本章總結
第17 章 卷積網(wǎng)絡實踐
17.1 手寫數(shù)字分類
17.2 VGG16
17.3 圖解卷積核(1)
17.4 圖解卷積核(2)
17.5 對抗樣本
17.6 本章總結
第18 章 自編碼器
18.1 編碼簡介
18.2 混合表示
18.3 最簡單的自編碼器
18.4 更好的自編碼器
18.5 探索自編碼器
18.5.1 探索潛在變量
18.5.2 參數(shù)空間
18.5.3 混合潛在變量
18.5.4 基于新輸入的預測
18.6 卷積自編碼器
18.6.1 混合潛在變量
18.6.2 基于新輸入的預測
18.7 去噪
18.8 可變自編碼器
18.8.1 潛在變量的分布
18.8.2 可變自編碼器結構
18.9 探索VAE
18.9.1 使用MNIST樣本
18.9.2 使用兩個潛在變量
18.9.3 產(chǎn)生新的輸入
18.10 本章總結
第19 章 循環(huán)神經(jīng)網(wǎng)絡
19.1 處理語言
19.1.1 常見的NLP任務
19.1.2 文本數(shù)值化
19.1.3 微調(diào)和下游網(wǎng)絡
19.2 全連接預測
19.2.1 測試網(wǎng)絡
19.2.2 失敗的原因
19.3 循環(huán)神經(jīng)網(wǎng)絡
19.3.1 狀態(tài)
XVI
19.3.2 卷起圖表
19.3.3 實踐循環(huán)單元
19.3.4 訓練循環(huán)神經(jīng)網(wǎng)絡
19.3.5 長短期記憶與門控循環(huán)網(wǎng)絡
19.4 使用循環(huán)神經(jīng)網(wǎng)絡
19.4.1 處理太陽黑子數(shù)據(jù)
19.4.2 生成文本
19.4.3 其他架構
19.5 Seq2Seq
19.6 本章總結
第20 章 注意力機制和Transformer模型
20.1 嵌入
20.1.1 詞嵌入技術
20.1.2 ELMo模型
20.2 注意力機制
20.2.1 形象比喻
20.2.2 自注意力機制
20.2.3 Q/KV注意力機制
20.2.4 多頭注意力機制
20.2.5 層圖標
20.3 Transformer模型
20.3.1 跳躍連接
20.3.2 Norm-Add
20.3.3 位置編碼
20.3.4 構建Transformer模塊
20.3.5 運行Transformer模塊
20.4 BERT和GPT-2
20.4.1 BERT
20.4.2 GPT-2
20.4.3 生成器討論
20.4.4 數(shù)據(jù)中毒
20.5 本章總結
第21 章 強化學習
21.1 基本思想
21.2 學習新游戲
21.3 強化學習的結構
21.3.1 步驟1:代理選擇操作
21.3.2 步驟2:環(huán)境做出反應
21.3.3 步驟3:代理自我更新
21.3.4 回到全局
21.3.5 理解回報
21.4 Flippers
21.5 L-Learning
21.5.1 基礎知識
21.5.2 L-Learning算法
21.5.3 性能測試
21.5.4 不可預測性
21.6 Q-Learning
21.6.1 Q值和更新
21.6.2 Q-Learning策略
21.6.3 策略總覽
21.6.4 房間里的大象
21.6.5 Q-Learning的作用
21.7 SARSA
21.7.1 SARSA算法
21.7.2 SARSA的作用
21.7.3 Q-Learning與SARSA的比較
21.8 縱觀全局
21.9 本章總結
第22 章 生成對抗網(wǎng)絡
22.1 偽造籌碼
22.1.1 從經(jīng)驗中學習
22.1.2 訓練生成器網(wǎng)絡
22.1.3 學習過程
22.1.4 理解對抗性
22.2 實現(xiàn)生成對抗網(wǎng)絡
22.2.1 鑒別器
22.2.2 生成器
22.2.3 訓練生成對抗網(wǎng)絡
22.3 生成對抗網(wǎng)絡的作用
22.3.1 構建鑒別器和生成器
22.3.2 訓練網(wǎng)絡
22.3.3 測試網(wǎng)絡
22.4 深度卷積生成對抗網(wǎng)絡
22.5 挑戰(zhàn)
22.5.1 大樣本訓練
22.5.2 模態(tài)崩潰
22.5.3 使用生成的數(shù)據(jù)訓練
22.6 本章總結
第23 章 創(chuàng)意應用
23.1 深夢系統(tǒng)
23.1.1 刺激卷積核
23.1.2 測試我們的算法
23.2 神經(jīng)風格遷移
23.2.1 表現(xiàn)風格
23.2.2 表現(xiàn)內(nèi)容
23.2.3 風格和內(nèi)容
23.2.4 測試算法
23.3 生成本書更多內(nèi)容
23.4 本章總結
23.5 最后的思考
參考文獻
圖片來源
索引