內容簡介
還在漫無頭緒?一本書帶你走完Python深度學習
內容簡介
✔一書融會貫通統計學、機器學習與計算機科學三大學門,搭建完備的知識體系。
✔以Python語言為基礎,引領讀者學會完成建模,實用性極強。
✔詳析分散式機器學習、神經網路、深度學習等人工智慧的尖精科技。
❑ 全方位闡明資料科學領域的相關知識,從統計分析、機器學習、深度學習中所運用的演算法及模型,輔以經濟學視角所提供關於模型的精闢見解,深入探討模型的可用性。
❑ 書中結合大量的實際案例與程式碼,幫助讀者學以致用,將具體的應用場景和現有的模型加以結合,從而發現模型更多的潛在應用場景。
❑ 章節架構:
1. 透過簡單的實例導引出模型,詳述其理論基礎;
2. 展示實現模型的核心程式;
3. 探討其優缺點及相關模型的比較。既能直觀地展示模型,亦能結合實際程式進行深入的探究,有助於讀者掌握與使用模型能力的提升。
適用讀者
對資料科學有興趣的初學者;資料科學家與工程研發相關技術人員;大專院校計算機、數學及相關領域專業培訓機構。
內容簡介
✔一書融會貫通統計學、機器學習與計算機科學三大學門,搭建完備的知識體系。
✔以Python語言為基礎,引領讀者學會完成建模,實用性極強。
✔詳析分散式機器學習、神經網路、深度學習等人工智慧的尖精科技。
❑ 全方位闡明資料科學領域的相關知識,從統計分析、機器學習、深度學習中所運用的演算法及模型,輔以經濟學視角所提供關於模型的精闢見解,深入探討模型的可用性。
❑ 書中結合大量的實際案例與程式碼,幫助讀者學以致用,將具體的應用場景和現有的模型加以結合,從而發現模型更多的潛在應用場景。
❑ 章節架構:
1. 透過簡單的實例導引出模型,詳述其理論基礎;
2. 展示實現模型的核心程式;
3. 探討其優缺點及相關模型的比較。既能直觀地展示模型,亦能結合實際程式進行深入的探究,有助於讀者掌握與使用模型能力的提升。
適用讀者
對資料科學有興趣的初學者;資料科學家與工程研發相關技術人員;大專院校計算機、數學及相關領域專業培訓機構。
作者簡介
作者簡介
唐 亘
資料科學家,專注於機器學習和大數據;法國國立統計與經濟管理學校的資料科學碩士學位。熱愛並積極參與Apache Spark和Scikit-Learn等開源專案;為惠普、華為、復旦大學提供百餘場技術培訓。此前的工作和研究集中於經濟和量化金融,曾參與經濟合作暨發展組織 (OECD) 的研究專案且發表論文,並擔任英國知名線上出版社Packt的技術審稿人。
唐 亘
資料科學家,專注於機器學習和大數據;法國國立統計與經濟管理學校的資料科學碩士學位。熱愛並積極參與Apache Spark和Scikit-Learn等開源專案;為惠普、華為、復旦大學提供百餘場技術培訓。此前的工作和研究集中於經濟和量化金融,曾參與經濟合作暨發展組織 (OECD) 的研究專案且發表論文,並擔任英國知名線上出版社Packt的技術審稿人。
內容目錄
目錄
chapter 01 資料科學概述
1.1 挑戰
1.2 機器學習
1.3 統計模型
1.4 關於本書
chapter 02 Python安裝指南與簡介:告別空談
2.1 Python簡介
2.2 Python安裝
2.3 Python上手實作
2.4 本章小結
chapter 03 數學基礎:惱人但又不可或缺的知識
3.1 矩陣和向量空間
3.2 機率:量化隨機
3.3 微積分
3.4 本章小結
chapter 04 線性迴歸:模型之母
4.1 簡單的實例
4.2 上手實作:模型實現
4.3 模型陷阱
4.4 模型持久化
4.5 本章小結
chapter 05 邏輯迴歸:隱藏因數
5.1 二元分類問題:是與否
5.2 上手實作:模型實現
5.3 評估模型效果:孰優孰劣
5.4 多元分類問題:超越是與否
5.5 非均衡資料集
5.6 本章小結
chapter 06 專案實現:電腦是怎麼算的
6.1 演算法想法:模擬捲動
6.2 數值求解:梯度下降法
6.3 上手實作:程式實現
6.4 更優化的演算法:隨機梯度下降法
6.5 本章小結
chapter 07 計量經濟學的啟示:他山之石
7.1 定量與定性:變數的數學運算合理嗎
7.2 定性變數的處理
7.3 定量變數的處理
7.4 顯著性
7.5 多重共線性:多變數的煩惱
7.6 內生性:變化來自何處
7.7 本章小結
chapter 08 監督式學習:目標明確
8.1 支援向量學習機
8.2 核心函數
8.3 決策樹
8.4 樹的整合
8.5 本章小結
chapter 09 生成式模型:量化資訊的價值
9.1 貝氏框架
9.2 單純貝氏
9.3 判別分析
9.4 隱馬克夫模型
9.5 本章小結
chapter 10 非監督式學習:分群與降維
10.1 K-means
10.2 其他分群模型
10.3 Pipeline
10.4 主成分分析
10.5 奇異值分解
10.6 本章小結
chapter 11 分散式機器學習:集體力量
11.1 Spark簡介
11.2 最佳化問題的分散式解法
11.3 大數據模型的兩個維度
11.4 開放原始碼工具的另一面
11.5 本章小結
chapter 12 神經網路:模擬人的大腦
12.1 神經元
12.2 神經網路
12.3 反向傳播演算法
12.4 加強神經網路的學習效率
12.5 本章小結
chapter 13 深度學習:繼續探索
13.1 利用神經網路識別數位
13.2 卷積神經網路
13.3 其他深度學習模型
13.4 本章小結
chapter 01 資料科學概述
1.1 挑戰
1.2 機器學習
1.3 統計模型
1.4 關於本書
chapter 02 Python安裝指南與簡介:告別空談
2.1 Python簡介
2.2 Python安裝
2.3 Python上手實作
2.4 本章小結
chapter 03 數學基礎:惱人但又不可或缺的知識
3.1 矩陣和向量空間
3.2 機率:量化隨機
3.3 微積分
3.4 本章小結
chapter 04 線性迴歸:模型之母
4.1 簡單的實例
4.2 上手實作:模型實現
4.3 模型陷阱
4.4 模型持久化
4.5 本章小結
chapter 05 邏輯迴歸:隱藏因數
5.1 二元分類問題:是與否
5.2 上手實作:模型實現
5.3 評估模型效果:孰優孰劣
5.4 多元分類問題:超越是與否
5.5 非均衡資料集
5.6 本章小結
chapter 06 專案實現:電腦是怎麼算的
6.1 演算法想法:模擬捲動
6.2 數值求解:梯度下降法
6.3 上手實作:程式實現
6.4 更優化的演算法:隨機梯度下降法
6.5 本章小結
chapter 07 計量經濟學的啟示:他山之石
7.1 定量與定性:變數的數學運算合理嗎
7.2 定性變數的處理
7.3 定量變數的處理
7.4 顯著性
7.5 多重共線性:多變數的煩惱
7.6 內生性:變化來自何處
7.7 本章小結
chapter 08 監督式學習:目標明確
8.1 支援向量學習機
8.2 核心函數
8.3 決策樹
8.4 樹的整合
8.5 本章小結
chapter 09 生成式模型:量化資訊的價值
9.1 貝氏框架
9.2 單純貝氏
9.3 判別分析
9.4 隱馬克夫模型
9.5 本章小結
chapter 10 非監督式學習:分群與降維
10.1 K-means
10.2 其他分群模型
10.3 Pipeline
10.4 主成分分析
10.5 奇異值分解
10.6 本章小結
chapter 11 分散式機器學習:集體力量
11.1 Spark簡介
11.2 最佳化問題的分散式解法
11.3 大數據模型的兩個維度
11.4 開放原始碼工具的另一面
11.5 本章小結
chapter 12 神經網路:模擬人的大腦
12.1 神經元
12.2 神經網路
12.3 反向傳播演算法
12.4 加強神經網路的學習效率
12.5 本章小結
chapter 13 深度學習:繼續探索
13.1 利用神經網路識別數位
13.2 卷積神經網路
13.3 其他深度學習模型
13.4 本章小結
ISBN: 9789863797104