總金額: 會員:NT$ 0 非會員:NT$ 0 
(此金額尚未加上運費)
電子電信技術 電腦技術 自動化基礎理論
 
 
 
 
實戰深度學習算法:零起點通關神經網絡模型(基於Python和NumPy實現)
 作  者: 徐彬
 出版單位: 電子工業
 出版日期: 2019.09
 進貨日期: 2019/11/7
 ISBN: 9787121371714
 開  本: 16 開    
 定  價: 593
 售  價: 474
  會 員 價: 435
推到Facebook 推到Plurk 推到Twitter
前往新書區 書籍介紹 購物流程  
 
編輯推薦:

資料、算力和演算法是人工智慧的三大基石,而我們可控、可學且能夠學會的就是演算法,本書即是一本?明你入門深度學習演算法的教程,專治各種看不懂、專治框架版本升級外加棄用!用Python給深度學習演算法加點料!

本書系統地介紹了如何用 Python 和 NumPy 一步步地實現深度學習的基礎模型:

感知機模型

多分類神經網路

深層全連接網路

卷積神經網路

批量規範化方法

迴圈神經網路

長短時記憶網路

雙向結構的 BiGRU 模型


內容簡介:

深度學習是機器學習的重要分支。本書系統地介紹了如何用 Python 和 NumPy 一步步地實現深度學習的基礎模型,無須借助 TensorFlow、PyTorch 等深度學習框架,?明讀者更好地理解底層演算法的脈絡,進而進行模型的定制、優化和改進。全書由簡到難地講述感知機模型、多分類神經網路、深層全連接網路、卷積神經網路、批量規範化方法、迴圈神經網路、長短時記憶網路、雙向結構的 BiGRU 模型等神經網路模型的必要演算法推導、實現及其實例,讀者可直接動手調試和觀察整個訓練過程,進一步理解模型及其演算法原理。

本書適合沒有深度學習基礎,希望進入此領域的在校學生、研究者閱讀,也適合有一定基礎但不滿足于“調包”和“調參”的工程師學習,還可供想要深入瞭解底層演算法的研究人員參考閱讀。


作者簡介:

徐彬,重慶大學電腦科學系學士、BI挪威商學院碩士。曾任中國工商銀行軟體工程師、平安銀行應用架構專家、銀行間市場清算所創新衍生品及利率產品專案群負責人。 研究方向包括信貸及清算風險管控、複雜項目群管理,機器學習在特定場景的應用。


圖書目錄:

1章基礎分類模型 1

1.1深度學習簡介 ............................ 2

1.2目標問題:空間中的二分類 .................... 2

1.3感知機模型 ............................. 3

1.3.1感知機函數 ......................... 3

1.3.2損失函數 .......................... 4

1.3.3感知機學習演算法 ....................... 6

1.4演算法實現 .............................. 8

1.4.1環境搭建 .......................... 8

1.4.2數據準備 .......................... 9

1.4.3實現感知機演算法 ....................... 11

1.5小結 ................................. 13參考文獻 ................................. 13

2章一個神經網路 14

2.1目標問題:MNIST手寫數位識別 ................. 15

2.1.1資料集 ............................ 15

2.1.2圖像資料和圖向量 ..................... 16

2.2挑戰:從二分類到多分類 ..................... 16

2.3 Softmax方法 ............................ 19

2.4正確分類的獨熱編碼 ........................ 20

2.5損失函數——交叉熵 ........................ 21

2.6信息熵和交叉熵 ........................... 21

2.6.1信息熵 ............................ 21

2.6.2交叉熵 ............................ 22

2.7一個神經網路的學習演算法 .................... 23

2.8反向傳播 .............................. 26

2.9抽象洩漏 .............................. 27

2.10演算法實現 .............................. 28

2.10.1數據準備 .......................... 28

2.10.2實現一個神經網路 .................... 33

2.10.3實現 MINIST手寫數位識別 ................ 36

2.11小結 ................................. 37參考文獻 ................................. 38

3章多層全連接神經網路 39

3.1一個挑戰:異或問題 ....................... 40

3.2更深的神經網路——隱藏層 .................... 40

3.3二個挑戰:參數擬合的兩面性 .................. 42

3.4過擬合與正則化 ........................... 44

3.4.1欠擬合與過擬合 ....................... 44

3.4.2正則化 ............................ 44

3.4.3正則化的效果 ........................ 44

3.5三個挑戰:非線性可分問題 ................... 45

3.6啟動函數 .............................. 45

3.7演算法和結構 ............................. 47

3.8演算法實現 .............................. 50

3.8.1數據準備 .......................... 50

3.8.2實現多層全連接神經網路 ................. 50

3.8.3在資料集上驗證模型 .................... 53

3.9小結 ................................. 54參考文獻 ................................. 54

4章卷積神經網路(CNN) 55

4.1挑戰:參數量和訓練成本 ..................... 56

4.2卷積神經網路的結構 ........................ 56

4.2.1卷積層 ............................ 57

4.2.2池化層 ............................ 62

4.2.3全連接層和 Softmax處理 ................. 63

4.3卷積神經網路學習演算法 ....................... 63

4.3.1全連接層 .......................... 63

4.3.2池化層反向傳播 ....................... 64

4.3.3卷積層反向傳播 ....................... 65

4.4演算法實現 .............................. 68

4.4.1數據準備 .......................... 68

4.4.2卷積神經網路模型的原始實現 ............... 69

4.5小結 ................................. 76參考文獻 ................................. 78

5章卷積神經網路——演算法提速和優化 79

5.1一個挑戰:卷積神經網路的運算效率 .............. 80

5.2提速改進 .............................. 80

5.2.1邊緣填充提速 ........................ 82

5.2.2池化層提速 ......................... 83

5.2.3卷積層處理 ......................... 85

5.3反向傳播演算法實現 ......................... 88

5.3.1池化層反向傳播 ....................... 88

5.3.2卷積層反向傳播 ....................... 89

5.4二個挑戰:梯度下降的幅度和方向 ............... 91

5.5遞減學習率參數 ........................... 92

5.6學習策略的優化方法 ........................ 92

5.6.1動量方法 .......................... 93

5.6.2 NAG方法 .......................... 93

5.6.3 Adagrad方法 ........................ 94

5.6.4 RMSprop方法 ....................... 95

5.6.5 AdaDelta方法 ....................... 96

5.6.6 Adam方法 ......................... 97

5.6.7各種優化方法的比較 .................... 98

目錄

5.7總體模型結構 ............................ 100

5.8使用 CNN實現 MNIST手寫數位識別驗證 ........... 101

5.9小結 ................................. 102參考文獻 ................................. 103

6章批量規範化(Batch Normalization) 104

6.1挑戰:深度神經網路不易訓練 ................... 105

6.2批量規範化方法的初衷 ....................... 105

6.2.1資料集偏移 ......................... 106

6.2.2輸入分佈偏移 ........................ 106

6.2.3內部偏移 .......................... 107

6.3批量規範化的演算法 ......................... 107

6.3.1訓練時的前向計算 ..................... 107

6.3.2規範化與標準化變數 .................... 108

6.3.3推理預測時的前向計算 ................... 109

6.3.4全連接層和卷積層的批量規範化處理 ........... 110

6.4批量規範化的效果 ......................... 111

6.4.1梯度傳遞問題 ........................ 111

6.4.2飽和非線性啟動問題 .................... 112

6.4.3正則化效果 ......................... 113

6.5批量規範化為何有效 ........................ 113

6.6批量規範化的反向傳播演算法 .................... 114

6.7演算法實現 .............................. 115

6.7.1訓練時的前向傳播 ..................... 116

6.7.2反向傳播 .......................... 117

6.7.3推理預測 .......................... 118

6.8調整學習率和總體結構 ....................... 119

6.8.1模型結構 .......................... 119

6.8.2卷積層批量規範化的實現 ................. 120

6.8.3引入批量規範化後的遞減學習率 .............. 121

6.9在 MNIST資料集上驗證結果 ................... 122

6.10小結 ................................. 123

參考文獻 ................................. 123

7章迴圈神經網路(Vanilla RNN) 125

7.1一個挑戰:序列特徵的捕捉 ................... 126

7.2迴圈神經網路的結構 ........................ 126

7.2.1單層 RNN.......................... 126

7.2.2雙向 RNN.......................... 128

7.2.3多層 RNN.......................... 129

7.3 RNN前向傳播演算法 ......................... 130

7.4 RNN反向傳播演算法 ......................... 131

7.4.1誤差的反向傳播 ....................... 131

7.4.2啟動函數的導函數和參數梯度 ............... 132

7.5二個挑戰:迴圈神經網路的梯度傳遞問題 ........... 133

7.6梯度裁剪 .............................. 134

7.7演算法實現 .............................. 135

7.8目標問題:序列資料分析 ..................... 139

7.8.1數據準備 .......................... 139

7.8.2模型搭建 .......................... 144

7.8.3驗證結果 .......................... 145

7.9小結 ................................. 147參考文獻 ................................. 147

8章長短時記憶網路(LSTM)——指數分析 149

8.1目標問題:投資市場的指數分析 .................. 150

8.2挑戰:梯度彌散問題 ........................ 150

8.3長短時記憶網路的結構 ....................... 150

8.4 LSTM前向傳播演算法 ........................ 152

8.5 LSTM反向傳播演算法 ........................ 153

8.5.1誤差反向傳播 ........................ 154

8.5.2啟動函數的導函數和參數梯度 ............... 155

8.6演算法實現 .............................. 156

8.6.1實現 LSTM單時間步的前向計算 ............. 156

8.6.2實現 LSTM多層多時間步的前向計算 .......... 157

8.6.3實現 LSTM單時間步的反向傳播 ............. 159

8.6.4實現 LSTM多層多時間步的反向傳播 .......... 160

8.7實現滬深 300指數分析 ....................... 161

8.7.1數據準備 .......................... 162

8.7.2模型構建 .......................... 166

8.7.3分析結果 .......................... 167

8.8小結 ................................. 168參考文獻 ................................. 169

9章雙向門控迴圈單元(BiGRU)——情感分析 170

9.1目標問題:情感分析 ........................ 171

9.2一個挑戰:模型的運算效率 ................... 172

9.3 GRU模型的結構 .......................... 172

9.4 GRU前向傳播演算法 ......................... 173

9.5 GRU前向傳播運算式的其他寫法 ................. 174

9.6 GRU反向傳播演算法 ......................... 175

9.7 GRU演算法實現 ........................... 177

9.7.1單時間步的前向計算 .................... 177

9.7.2實現單時間步的反向傳播 ................. 178

9.8用 GRU模型進行情感分析 .................... 179

9.8.1數據預處理 ......................... 180

9.8.2構建情感分析模型 ..................... 181

9.9驗證 .............................. 182

9.10二個挑戰:序列模型的過擬合 .................. 183

9.11 Dropout正則化 ........................... 183

9.11.1 Dropout前向傳播演算法 ................... 183

9.11.2 Dropout反向傳播演算法 ................... 184

9.11.3 Dropout Rate的選擇 ................... 185

9.12再次驗證:GRU+Dropout..................... 186

9.13三個挑戰:捕捉逆序資訊 .................... 187

9.14雙向門控迴圈單元(BiGRU) ................... 187

9.15三次驗證:BiGRU+Dropout .................. 188

9.16小結 ................................. 189

參考文獻 ................................. 189

附錄 A向量和矩陣運算 191

附錄 B導數和微分 194

附錄 C向量和矩陣導數 195

附錄 D概率論和數理統計 201

索引 205


圖片預覽:

 
  步驟一.
依據網路上的圖書,挑選你所需要的書籍,根據以下步驟進行訂購
選擇產品及數量 結 帳 輸入基本資料 取貨與付款方式
┌───────────────────────────────────────────────────┘
資料確定 確認結帳 訂單編號    

步驟二.
完成付款的程序後,若採用貨到付款等宅配方式,3~7天內 ( 例假日將延期一至兩天 ) 您即可收到圖書。若至分店門市取貨,一週內聯絡取書。

步驟三.
完成購書程序者,可利用 訂單查詢 得知訂單進度。

注意事項.
● 付款方式若為網路刷卡必須等" 2 ~ 3 個工作天"確認款項已收到,才會出貨.如有更改書籍數量請記得按更新購物車,謝謝。

● 大陸出版品封面老舊、磨痕、凹痕等均屬常態,除封面破損、內頁脫落...等較嚴重的狀態外,其餘所有商品將正常出貨。

● 至2018年起,因中國大陸環保政策,部分書籍配件以QR CODE取代光盤音頻mp3或dvd,已無提供實體光盤。如需使用學習配件,請掃描QR CODE 連結至當地網站註冊並通過驗證程序,方可下載使用。造成不便,敬請見諒。

● 我們將保留所有商品出貨權利,如遇缺書情形,訂單未達免運門檻運費需自行負擔。

預訂海外庫存.
商品到貨時間須4週,訂單書籍備齊後方能出貨,如果您有急用書籍,建議與【預訂海外庫存】商品分開訂購。