總金額: 會員:NT$ 0 非會員:NT$ 0 
(此金額尚未加上運費)
電子電信技術 電腦技術 自動化基礎理論
 
 
 
 
深度學習入門之PyTorch
 叢書名稱: 博文視點AI系列
 作  者: 廖星宇
 出版單位: 電子工業
 出版日期: 2017.10
 進貨日期: 2019/6/20
 ISBN: 9787121326202
 開  本: 16 開    
 定  價: 593
 售  價: 316
  會 員 價: 316
推到Facebook 推到Plurk 推到Twitter
前往新書區 書籍介紹 購物流程  
 
編輯推薦:

1 作者本身也是從小白開始入門深度學習的,無論從書中內容,還是講解思路,以及語言風格,均適合你從零開始進入深度學習這個充滿魔力的世界。

2 實例簡單而不簡約,用到了生成對抗網路和注意力機制等目前相對前沿的深度學習技術。

3 雖然是一本入門教程,但是對原理的講述也不含糊,清晰易懂,讓讀者能知其然且知其所以然。


內容簡介:

深度學習如今已經成為了科技領域最炙手可熱的技術,在本書中,我們將幫助你入門深度學習的領域。本書將從人工智慧的介紹入手,瞭解機器學習和深度學習的基礎理論,並學習如何用PyTorch框架對模型進行搭建。通過閱讀本書,你將會學習到機器學習中的線性回歸和logistic回歸,深度學習的優化方法,多層全連接神經網路,卷積神經網路,迴圈神經網路以及生成對抗網路,同時從零開始對PyTorch進行學習,瞭解PyTorch基礎及如何用其進行模型的搭建,最後通過實戰瞭解最前沿的研究成果和PyTorch在實際專案中的應用。


作者簡介:

廖星宇,目前就讀於中國科學技術大學應用數學系,獲得國家一等獎學金。在個人博客、知乎等平臺上發佈多篇關於深度學習的文章,具有一定的閱讀量和人氣。


圖書目錄:

第1 章深度學習介紹1
1.1 人工智慧. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 數據挖掘、機器學習與深度學習. . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 數據挖掘. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 機器學習. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.3 深度學習. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 學習資源與建議. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
第2 章深度學習框架11
2.1 深度學習框架介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 PyTorch 介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.1 什麼是PyTorch . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.2 為何要使用PyTorch . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 配置PyTorch 深度學習環境. . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.1 操作系統的選擇. . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.2 Python 開發環境的安裝. . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.3 PyTorch 的安裝. . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
第3 章多層全連接神經網路24
3.1 熱身:PyTorch 基礎. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.1 Tensor(張量) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.2 Variable(變數) . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.1.3 Dataset(數據集) . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.1.4 nn.Module(模組) . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.1.5 torch.optim(優化) . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.1.6 模型的保存和加載. . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 線性模型. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2.1 問題介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2.2 一維線性回歸. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.3 多維線性回歸. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.4 一維線性回歸的代碼實現. . . . . . . . . . . . . . . . . . . . . . 35
3.2.5 多項式回歸. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3 分類問題. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.1 問題介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.2 Logistic 起源. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.3 Logistic 分佈. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.4 二分類的Logistic 回歸. . . . . . . . . . . . . . . . . . . . . . . . 43
3.3.5 模型的參數估計. . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.6 Logistic 回歸的代碼實現. . . . . . . . . . . . . . . . . . . . . . . 45
3.4 簡單的多層全連接前向網路. . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4.1 模擬神經元. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4.2 單層神經網路的分類器. . . . . . . . . . . . . . . . . . . . . . . . 50
3.4.3 啟動函數. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4.4 神經網路的結構. . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.4.5 模型的表示能力與容量. . . . . . . . . . . . . . . . . . . . . . . . 55
3.5 深度學習的基石:反向傳播演算法. . . . . . . . . . . . . . . . . . . . . . . 57
3.5.1 鏈式法則. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5.2 反向傳播演算法. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.5.3 Sigmoid 函數舉例. . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.6 各種優化演算法的變式. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.6.1 梯度下降法. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.6.2 梯度下降法的變式. . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.7 處理數據和訓練模型的技巧. . . . . . . . . . . . . . . . . . . . . . . . . 64
3.7.1 數據預處理. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.7.2 權重初始化. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.7.3 防止過擬合. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.8 多層全連接神經網路實現MNIST 手寫數字分類. . . . . . . . . . . . . . 69
3.8.1 簡單的三層全連接神經網路. . . . . . . . . . . . . . . . . . . . . 70
3.8.2 添加啟動函數. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.8.3 添加批標準化. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.8.4 訓練網路. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
第4 章卷積神經網路76
4.1 主要任務及起源. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.2 卷積神經網路的原理和結構. . . . . . . . . . . . . . . . . . . . . . . . . 77
4.2.1 卷積層. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.2.2 池化層. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.2.3 全連接層. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.2.4 卷積神經網路的基本形式. . . . . . . . . . . . . . . . . . . . . . 85
4.3 PyTorch 卷積模組. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.3.1 卷積層. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.3.2 池化層. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.3.3 提取層結構. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.3.4 如何提取參數及自定義初始化. . . . . . . . . . . . . . . . . . . . 91
4.4 卷積神經網路案例分析. . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.4.1 LeNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.4.2 AlexNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.4.3 VGGNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.4.4 GoogLeNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.4.5 ResNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.5 再實現MNIST 手寫數字分類. . . . . . . . . . . . . . . . . . . . . . . . . 103
4.6 圖像增強的方法. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.7 實現cifar10 分類. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
第5 章迴圈神經網路111
5.1 迴圈神經網路. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.1.1 問題介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
5.1.2 迴圈神經網路的基本結構. . . . . . . . . . . . . . . . . . . . . . 112
5.1.3 存在的問題. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.2 迴圈神經網路的變式:LSTM 與GRU . . . . . . . . . . . . . . . . . . . . 116
5.2.1 LSTM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
5.2.2 GRU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.2.3 收斂性問題. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.3 迴圈神經網路的PyTorch 實現. . . . . . . . . . . . . . . . . . . . . . . . 122
5.3.1 PyTorch 的迴圈網路模組. . . . . . . . . . . . . . . . . . . . . . . 122
5.3.2 實例介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
5.4 自然語言處理的應用. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.4.1 詞嵌入. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.4.2 詞嵌入的PyTorch 實現. . . . . . . . . . . . . . . . . . . . . . . . 133
5.4.3 N Gram 模型. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
5.4.4 單詞預測的PyTorch 實現. . . . . . . . . . . . . . . . . . . . . . . 134
5.4.5 詞性判斷. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
5.4.6 詞性判斷的PyTorch 實現. . . . . . . . . . . . . . . . . . . . . . . 137
5.5 迴圈神經網路的更多應用. . . . . . . . . . . . . . . . . . . . . . . . . . . 140
5.5.1 Many to one . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
5.5.2 Many to Many(shorter) . . . . . . . . . . . . . . . . . . . . . . . 141
5.5.3 Seq2seq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
5.5.4 CNN+RNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
第6 章生成對抗網路144
6.1 生成模型. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
6.1.1 自動編碼器. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
6.1.2 變分自動編碼器. . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
6.2 生成對抗網路. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
6.2.1 何為生成對抗網路. . . . . . . . . . . . . . . . . . . . . . . . . . 153
6.2.2 生成對抗網路的數學原理. . . . . . . . . . . . . . . . . . . . . . 160
6.3 Improving GAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
6.3.1 Wasserstein GAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
6.3.2 Improving WGAN . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
6.4 應用介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
6.4.1 Conditional GAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
6.4.2 Cycle GAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
第7 章深度學習實戰173
7.1 實例一──貓狗大戰:運用預訓練卷積神經網路進行特徵提取與預測. 173
7.1.1 背景介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
7.1.2 原理分析. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
7.1.3 代碼實現. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
7.1.4 總結. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
7.2 實例二──Deep Dream:探索卷積神經網路眼中的世界. . . . . . . . . 183
7.2.1 原理介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
7.2.2 預備知識:backward . . . . . . . . . . . . . . . . . . . . . . . . . 185
7.2.3 代碼實現. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
7.2.4 總結. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
7.3 實例三──Neural-Style:使用PyTorch 進行風格遷移. . . . . . . . . . . 196
7.3.1 背景介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
7.3.2 原理分析. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
7.3.3 代碼實現. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
7.3.4 總結. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
7.4 實例四──Seq2seq:通過RNN 實現簡單的Neural Machine Translation . 205
7.4.1 背景介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
7.4.2 原理分析. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
7.4.3 代碼實現. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
7.4.4 總結. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221


圖片預覽:

 
  步驟一.
依據網路上的圖書,挑選你所需要的書籍,根據以下步驟進行訂購
選擇產品及數量 結 帳 輸入基本資料 取貨與付款方式
┌───────────────────────────────────────────────────┘
資料確定 確認結帳 訂單編號    

步驟二.
完成付款的程序後,若採用貨到付款等宅配方式,3~7天內 ( 例假日將延期一至兩天 ) 您即可收到圖書。若至分店門市取貨,一週內聯絡取書。

步驟三.
完成購書程序者,可利用 訂單查詢 得知訂單進度。

注意事項.
● 付款方式若為網路刷卡必須等" 2 ~ 3 個工作天"確認款項已收到,才會出貨.如有更改書籍數量請記得按更新購物車,謝謝。

● 大陸出版品封面老舊、磨痕、凹痕等均屬常態,除封面破損、內頁脫落...等較嚴重的狀態外,其餘所有商品將正常出貨。

● 至2018年起,因中國大陸環保政策,部分書籍配件以QR CODE取代光盤音頻mp3或dvd,已無提供實體光盤。如需使用學習配件,請掃描QR CODE 連結至當地網站註冊並通過驗證程序,方可下載使用。造成不便,敬請見諒。

● 我們將保留所有商品出貨權利,如遇缺書情形,訂單未達免運門檻運費需自行負擔。

預訂海外庫存.
商品到貨時間須4週,訂單書籍備齊後方能出貨,如果您有急用書籍,建議與【預訂海外庫存】商品分開訂購。