總金額: 會員:NT$ 0 非會員:NT$ 0 
(此金額尚未加上運費)
電子電信技術 電腦技術 自動化基礎理論
 
 
 
 
機器學習:算法背後的理論與優化
 叢書名稱: 中外學者論AI
 作  者: 史春奇/卜晶禕/施智平
 出版單位: 清華大學
 出版日期: 2019.07
 進貨日期: 2019/10/11
 ISBN: 9787302517184
 開  本: 16 開    
 定  價: 518
 售  價: 414
  會 員 價: 380
推到Facebook 推到Plurk 推到Twitter
前往新書區 書籍介紹 購物流程  
 
編輯推薦:

本書深入淺出地介紹了機器學習的代表性演算法,並揭示其背後隱含的統計學習理論,是人工智慧、機器學習方向的入門和進階專業材料


內容簡介:

以機器學習為核心的人工智慧已經成為新一代生產力發展的主要驅動因素。新的技術正在向各行各業 滲透,大有變革各個領域的趨勢。傳統產業向智慧產業的升級迫使原行業從業人員逐漸轉型,市場上對相 關學習材料的需求也日益高漲。幫助廣大學習者更好地理解和掌握機器學習,是編寫本書的目的。 本書針對機器學習領域中*常見的一類問題——有監督學習,從入門、進階、深化三個層面由淺入深 地進行了講解。三個層面包括基礎入門演算法、核心理論及理論背後的數學優化。入門部分用以邏輯回歸為 代表的廣義線性模型為出發點,引入書中所有涉及的知識點;進階部分的核心理論涵蓋了經驗風險最小、 結構風險最小、正則化及統一的分類邊界理論;深化部分的數學優化則主要包括熵原理、拉格朗日對 偶等理論在數學上的推導,以及對模型求解的主流化方法的探討等。 本書由淺入深,從個別到普便,從自然演算法到優化演算法,從各個角度深入剖析了機器學習,力求幫助 讀者循序漸進地掌握機器學習的概念、演算法和優化理論。


作者簡介:

史春奇博士,畢業于日本京都大學,美國Brandeis University博士後,現為港輝金融資訊Vice President, 曾任通用電氣(中國)有限公司資深資料科學家。

卜晶禕,畢業于上海交通大學,現為友邦保險集團人工智慧主管。曾就職於通用電氣(中國)研究開發中心有限公司,任資深資料科學家;曾任飛利浦亞洲研究院高級研究員。

施智平博士,首都師範大學資訊工程學院教授,院長,畢業于中科院計算技術研究所。於2012年和2017年獲北京市科學技術獎二等獎兩次,中國電腦學會高級會員,形式化方法專委會委員,人工智慧學會會員,智慧服務專委會委員,IEEE/ACM 會員。


圖書目錄:

第1 章線性回歸與邏輯回歸. 1
1.1 線性回歸. 1
1.1.1 函數關係與統計關係.1
1.1.2 統計與機器學習. 2
1.2 最小二乘法與高斯-瑪律可夫定理. 5
1.2.1 最小二乘法. . 5
1.2.2 高斯-瑪律可夫定理. . 6
1.3 從線性回歸到邏輯回歸. 8
1.4 最大似然估計求解邏輯回歸. . 9
1.5 最小二乘與最大似然. . 11
1.5.1 邏輯回歸與伯努利分佈. 11
1.5.2 線性回歸與正態分佈. 12
1.6 小結. 13
參考文獻. 13
第2 章廣義線性模型. 15
2.1 廣義線性模型概述.15
2.1.1 廣義線性模型的定義. 15
2.1.2 連結函數與指數分佈簇. 17
2.2 廣義線性模型求解.20
2.3 最大似然估計Ⅰ:Fisher 信息. 21
2.4 最大似然估計Ⅱ:KL 散度與Bregman 散度. 23
2.4.1 KL 散度. . 23
2.4.2 Bregman 散度. . 25
2.5 小結. 26
X
參考文獻. 26
第3 章經驗風險最小. 28
3.1 經驗風險與泛化誤差概述. .28
3.1.1 經驗風險. 30
3.1.2 泛化誤差. 30
3.1.3 欠擬合和過擬合. . 34
3.1.4 VC 維. . 37
3.2 經驗風險最小的演算法. . 40
3.3 分類邊界. . 42
3.3.1 分類演算法的損失函數. 42
3.3.2 分類演算法的邊界. . 45
3.4 小結. 48
參考文獻. 48
第4 章結構風險最小. 49
4.1 經驗風險最小和過擬合. . 49
4.2 結構風險最小和正則化. . 51
4.2.1 從空間角度理解SRM 52
4.2.2 從貝葉斯觀點理解SRM 54
4.3 回歸的正則化. 55
4.3.1 L2 正則化和嶺回歸. 56
4.3.2 L1 正則化和Lasso 回歸. . 57
4.3.3 L1、L2 組合正則化和ElasticNet 回歸. . 58
4.4 分類的正則化. 60
4.4.1 支持向量機和L2 正則化. 60
4.4.2 XGBoost 和樹正則化. 62
4.4.3 神經網路和DropOut 正則化. 65
4.4.4 正則化的優缺點. . 66
4.5 小結. 67
參考文獻. 67
第5 章貝葉斯統計與熵.68
5.1 統計學習的基礎:參數估計. .68
5.1.1 矩估計. .68
XI
5.1.2 最大似然估計.69
5.1.3 最小二乘法. 71
5.2 概率分佈與三大統計思維. .72
5.2.1 頻率派和正態分佈. . 72
5.2.2 經驗派和正態分佈. . 75
5.2.3 貝葉斯派和正態分佈. 76
5.2.4 貝葉斯統計和熵的關係. 79
5.3 資訊熵的理解. 79
5.3.1 信息熵簡史. 79
5.3.2 資訊熵定義. 80
5.3.3 期望編碼長度解釋. . 81
5.3.4 不確定性公理化解釋. 81
5.3.5 基於熵的度量.84
5.4 最大熵原理. . 86
5.4.1 最大熵的直觀理解. . 86
5.4.2 最大熵解釋自然指數分佈簇. . 87
5.4.3 最大熵解釋最大似然估計.89
5.5 小結. 90
參考文獻. 90
第6 章基於熵的Softmax. .92
6.1 二項分佈和多項分佈. . 92
6.2 Logistic 回歸和Softmax 回歸. .93
6.2.1 廣義線性模型的解釋. 93
6.2.2 Softmax 回歸. 94
6.2.3 最大熵原理與Softmax 回歸的等價性.96
6.3 最大熵條件下的Log-Linear 101
6.4 多分類介面.103
6.4.1 感知機和多分類感知機. . 104
6.4.2 多分類感知機和結構感知機. 105
6.5 概率圖模型裡面的Log-Linear 106
6.6 深度學習裡面的Softmax 層. . 108
6.7 小結. . 109
XII
參考文獻. . 109
第7 章拉格朗日乘子法. 111
7.1 凸共軛. .111
7.1.1 凸共軛的定義. 111
7.1.2 凸共軛定理. . 113
7.2 拉格朗日對偶. . 114
7.2.1 拉格朗日對偶概述.115
7.2.2 Salter 條件. . 117
7.2.3 KKT 條件. 118
7.3 Fenchel 對偶. .120
7.4 增廣拉格朗日乘子法. 123
7.4.1 近端. 123
7.4.2 增廣拉格朗日乘子法和對偶上升演算法. .126
7.5 交替方向乘子法. . 129
7.5.1 對偶分解. . 130
7.5.2 交替方向乘子法概述. . 131
7.6 小結. . 131
參考文獻. . 132
第8 章隨機梯度下降法. 134
8.1 隨機梯度下降法概述. 134
8.1.1 機器學習場景. 134
8.1.2 隨機梯度下降法的定義. . 135
8.1.3 隨機梯度下降法收斂性分析. 136
8.1.4 收斂性證明. . 139
8.2 隨機梯度下降法進階Ⅰ:方差縮減. 140
8.2.1 方差縮減的效果. 141
8.2.2 方差縮減的實現. 143
8.3 隨機梯度下降法進階Ⅱ:加速與適應. 145
8.3.1 加速. 146
8.3.2 適應. 148
8.3.3 加速£ 適應. 151
8.4 隨機梯度下降法的並行實現. . 156
XIII
8.5 小結. . 160
參考文獻. . 161
第9 章常見的最優化方法. 163
9.1 最速下降演算法. . 163
9.1.1 l2 範數與梯度下降法. . 164
9.1.2 l1 範數與座標下降演算法. . 165
9.1.3 二次範數與牛頓法.166
9.2 步長的設定.168
9.2.1 Armijo-Goldstein 準則. 169
9.2.2 Wolfe-Powell 準則. 170
9.2.3 回溯線搜索. . 171
9.3 收斂性分析.171
9.3.1 收斂速率. . 172
9.3.2 對目標函數的一些假設. . 173
9.4 一階演算法:梯度下降法. 177
9.5 二階演算法:牛頓法及其衍生演算法. .178
9.5.1 牛頓法與梯度下降法的對比. 179
9.5.2 擬牛頓法. . 180
9.5.3 從二次範數的角度看牛頓法. 182
9.6 小結. . 183
參考文獻. . 185


章節試讀:

在當今的人工智慧領域中最熱門技術毫無疑問當屬深度學習。深度學習在Geo?rey
Hinton、Yoshua Bengio、Yann LeCun 和Juergen Schmidhuber 等巨擘們持續不斷的貢獻
下,在文本、圖像、自然語言等方向均取得了革命性的進展。當然,深度學習只是機器學習
的一個分支,能取得當前的成功也是建立在機器學習不斷發展的基礎之上。在機器學習領
域,很多著名科學家(如圖1 所示) 提出了他們的理論,做出了他們的貢獻。Leslie Valiant
提出的概率近似正確學習(Probably Approximately Correct Learning, PAC) 理論打下了
計算學習理論的基石,並在此後提出了自舉(Boosting) 思想。Vladimir Vapnik 提出的支
持向量機(Support Vector Machine, SVM) 是一個理論和應用都十分強大的演算法。與此同
時他所提出的經驗風險最小與結構風險最小理論,以及背後更深層次的VC 維(Vapnik-
Chervonenkis dimension) 理論,為部分統一分類問題提供了理論基礎。Judea Pearl 提出
圖1 機器學習領域(支持向量機、集成學習、概率圖模型) 的著名科學家
II
了貝葉斯網路,而Michael I. Jordan 則在此基礎上發展了概率圖模型。Leo Breiman 在集
成(Ensemble) 學習的思想下設計了隨機森林(Random Forest) 演算法,Robert Schapire 和
Jerome H. Friedman 則基於Boosting 分別發明了AdaBoost和Gradient Boosting演算法。至
此,機器學習中最耀眼的演算法|| 支援向量機、集成學習和概率圖模型交相輝映,為整
個機器學習理論的發展奠定了深厚的基礎。
本書首先嘗試把機器學習的經典演算法,包括邏輯回歸(Logistic Regression)、支援
向量機和AdaBoost 等,在經驗風險最小和結構風險最小的框架下進行統一,並且借助
Softmax 模型和概率圖模型中的Log-Linear 模型闡述它們的內在聯繫;其次從熵的角度
解讀概率分佈、最大似然估計、指數分佈族、廣義線性模型等概念;最後深入剖析用於求
解的最優化演算法及其背後的數學理論。
本書的主要內容
全書分為9 個章節,從單一演算法到統一框架,再到一致最優化求解,各章節的設置
如下。
第1 章,首先提出並探討幾個基本問題,包括回歸思想、最優模型評價標準、數理統
計與機器學習的關係等。之後介紹兩個最簡單最常見的有監督學習演算法|| 線性回歸和
邏輯回歸,並從計算的角度分析兩種模型內在的關聯,從而為學習“廣義線性模型”打下
基礎。在本章的最後部分初步講解兩個模型的求解方法|| 最小二乘法和最大似然估
計。
第2 章,主要內容是線性回歸的泛化形式|| 廣義線性模型。本章詳細介紹廣義線
性模型,並在第1 章的基礎上從Fisher 資訊、KL 散度、Bregman 距離的角度深入講解
最大似然估計。本章可以看作是第3 章的基礎引入。
第3 章,在前兩章的基礎上提出泛化誤差和經驗風險最小等概念,並且將最小二乘
和最大似然併入損失函數的範疇。在此基礎之上,我們便將邏輯回歸、支援向量機和Ada
Boost 演算法統一到分類介面的框架下。至此我們會看到不同的演算法只是分別對應了不同
的損失函數。
第4 章,介紹經驗風險最小的不足與過擬合的概念,之後引出正則化。緊接著介紹
有監督學習演算法中的常見正則化方法,包括L1 和L2 正則化XG Boost 和樹。本章從兩
個角度對L1 和L2 正則化進行深入講解|| 貝葉斯和距離空間。這兩個觀點分別對應
了本書後續的兩大部分|| 熵和最優化。
第5 章,介紹貝葉斯統計和熵之間的關係,並且基於熵重新解讀了最大似然估計、指
III
數分佈族等概念。本章可以看作是前四章中出現的內容在熵概念下的再定義。同時也是
為下一章的Log-Linear 模型作出鋪墊。
第6 章,介紹Softmax 和Log-Linear 的變化,並且將第3 章的二分類介面泛化到多
分類介面,把分類問題的思路擴展到了多分類和結構分類。在本章中通過Log-Linear 關
聯了概率圖模型,通過Softmax 關聯了深度學習。
第7 章,承接第4 章中L1 和L2 正則化在最優化角度的解釋,從凸共軛的開始遞進
地推導出拉格朗日對偶、Fenchel 對偶、增廣拉格朗日乘子法、交替方向乘子法。
第8 章,介紹有監督學習模型在機器學習場景下的統一求解方法|| 隨機梯度下
降法及其改進演算法。本章對隨機梯度下降法進行了收斂性分析,並根據分析結果針對其
缺點著重介紹了兩類改進策略|| 方差縮減、加速和適應。
第9 章,主要對數學意義上的最優化方法進行探討,可以看作是連接第7 章和第8
章的橋樑。第7 章的內容是本章的理論部分,而第8 章的內容則是本章介紹的演算法應用
在在機器學習場景中的特例,主要內容包括一階、二階最優化演算法及其收斂性分析。
圖2 章節結構關係圖
史春奇與蔔晶禕為本書的共同第一作者。書中第3?6 章主要由史春奇博士撰寫,第
IV
1、2、7?9 章主要由蔔晶禕撰寫,施智平教授參與了本書的組織結構設計並提出了很多寶
貴意見。由於作者的能力與水準有限,本書對機器學習的探討難免會有不全面、不深刻
等不足之處,敬請各位讀者批評指正,如蒙賜教將不勝感激。
各個章節結構之間的關係如圖2 所示。對於基礎稍淺的讀者,可以按照圖示循序漸
進地閱讀;對於有一定基礎的讀者,可以跳過部分章節直接閱讀感興趣的章節。
作者
2019 年1 月


圖片預覽:

 
  步驟一.
依據網路上的圖書,挑選你所需要的書籍,根據以下步驟進行訂購
選擇產品及數量 結 帳 輸入基本資料 取貨與付款方式
┌───────────────────────────────────────────────────┘
資料確定 確認結帳 訂單編號    

步驟二.
完成付款的程序後,若採用貨到付款等宅配方式,3~7天內 ( 例假日將延期一至兩天 ) 您即可收到圖書。若至分店門市取貨,一週內聯絡取書。

步驟三.
完成購書程序者,可利用 訂單查詢 得知訂單進度。

注意事項.
● 付款方式若為網路刷卡必須等" 2 ~ 3 個工作天"確認款項已收到,才會出貨.如有更改書籍數量請記得按更新購物車,謝謝。

● 大陸出版品封面老舊、磨痕、凹痕等均屬常態,除封面破損、內頁脫落...等較嚴重的狀態外,其餘所有商品將正常出貨。

● 至2018年起,因中國大陸環保政策,部分書籍配件以QR CODE取代光盤音頻mp3或dvd,已無提供實體光盤。如需使用學習配件,請掃描QR CODE 連結至當地網站註冊並通過驗證程序,方可下載使用。造成不便,敬請見諒。

● 我們將保留所有商品出貨權利,如遇缺書情形,訂單未達免運門檻運費需自行負擔。

預訂海外庫存.
商品到貨時間須4週,訂單書籍備齊後方能出貨,如果您有急用書籍,建議與【預訂海外庫存】商品分開訂購。