登入
|
註冊
|
會員中心
|
結帳
|
培訓課程
魔法弟子
|
自資出版
|
電子書
|
客服中心
|
智慧型立体會員
書名
出版社
作者
isbn
編號
5050魔法眾籌
|
NG書城
|
國際級品牌課程
|
優惠通知
|
霹靂英雄音樂精選
|
iPhone 4S JB解禁秘術:Cydia 超限軟體300+
.
AI時代Math元年
.
資料可視化王者:用P
.
AI時代Math元年
文學小說
文學
|
小說
商管創投
財經投資
|
行銷企管
人文藝坊
宗教、哲學
社會、人文、史地
藝術、美學
|
電影戲劇
勵志養生
醫療、保健
料理、生活百科
教育、心理、勵志
進修學習
電腦與網路
|
語言工具
雜誌、期刊
|
軍政、法律
參考、考試、教科用書
科學工程
科學、自然
|
工業、工程
家庭親子
家庭、親子、人際
青少年、童書
玩樂天地
旅遊、地圖
|
休閒娛樂
漫畫、插圖
|
限制級
AI時代Math元年:用Python全精通機器學習
作者:
姜偉生
分類:
電腦與網路
/
綜論
出版社:
深智數位
出版日期:2025/3/24
ISBN:9786267569559
書籍編號:kk0599015
頁數:688
定價:
1080
元
優惠價:
79
折
853
元
書價若有異動,以出版社實際定價為準
訂購後立即為您進貨
訂購後立即為您進貨:目前無庫存量,讀者下訂後,開始進入調書程序,一般天數約為2-10工作日(不含例假日)。
團購數最低為 20 本以上
評價數:
(請將滑鼠移至星星處進行評價)
目前平均評價:
文字連結
複製語法
AI時代Math元年:用Python全精通機器學習
圖片連結
複製語法
分
享
內容簡介
作者介紹
書籍目錄
同類推薦
AI時代Math元年:用Python全精通機器學習 內容簡介 AI時代Math元年 - 用Python全精通機器學習 ✴︎ 迴歸分析:深度挖掘資料中變數間的關聯性與規律 ✴︎ 線性迴歸:透過直線模型解讀簡單資料的趨勢與變化 ✴︎ 多元線性迴歸:建構高維資料模型,分析多重影響因素 ✴︎ 非線性迴歸:處理複雜資料模式,探索非線性關係的應用 ✴︎ 正規化迴歸:透過嶺回歸與套索迴歸有效抑制模型過擬合 ✴︎ 貝氏迴歸:結合先驗知識與數據,實現貝氏統計推斷 ✴︎ 高斯過程:深入了解從理論到應用的高斯模型方法 ✴︎ k最近鄰分類:運用鄰近資料進行分類與迴歸的經典算法 ✴︎ 決策樹:以層次結構實現資料分類與回歸的靈活應用 ✴︎ 支援向量機:應對高維資料,實現精確分類與回歸分析 ✴︎ 主成分分析:透過降維技術提取資料中的核心特徵與模式 ✴︎ K平均值聚類:快速分群分析,尋找資料內部結構與規律 ✴︎ 高斯混合模型:運用軟聚類技術實現精細的資料分群 ✴︎ 最大期望演算法:優化模型參數,提升聚類與估計效能
作者簡介 姜偉生 博士FRM。勤奮的小鎮做題家,熱愛知識可視化和開源分享。自2022年8月開始,在GitHub上開源「鳶尾花書」學習資源,截至2023年9月,已經分享4000多頁PDF、4000多幅矢量圖、約2000個代碼文件,全球讀者數以萬計。
目錄 第 1 篇 整體說明 第 1 章 機器學習 1.1 什麼是機器學習? 1.2 迴歸:找到引數與因變數關係 1.3 分類:針對有標籤資料 1.4 降維:降低資料維度,提取主要特徵 1.5 聚類:針對無標籤資料 1.6 機器學習流程 1.7 下一步學什麼? 第 2 篇 迴歸 第 2 章 迴歸分析 2.1 線性迴歸:一個表格、一條直線 2.2 方差分析(ANOVA) 2.3 總離差平方和(SST) 2.4 迴歸平方和(SSR) 2.5 殘差平方和(SSE) 2.6 幾何角度:畢氏定理 2.7 擬合優度:評價擬合程度 2.8 F 檢驗:模型參數不全為0 2.9 t 檢驗:某個迴歸係數是否為0 2.10 置信區間:因變數平均值的區間 2.11 預測區間:因變數特定值的區間 2.12 對數似然函數:用在最大似然估計(MLE) 2.13 資訊準則:選擇模型的標準 2.14 殘差分析:假設殘差服從平均值為0 的正態分佈 2.15 自相關檢測:Durbin-Watson 2.16 條件數:多重共線性 第 3 章 多元線性迴歸 3.1 多元線性迴歸 3.2 最佳化問題:OLS 3.3 幾何解釋:投影 3.4 二元線性迴歸實例 3.5 多元線性迴歸實例 3.6 正交關係 3.7 三個平方和 3.8 t 檢驗 3.9 多重共線性 3.10 條件機率角度看多元線性迴歸 第 4 章 非線性迴歸 4.1 線性迴歸 4.2 線性對數模型 4.3 非線性迴歸 4.4 多項式迴歸 4.5 邏輯迴歸 4.6 邏輯函數完成分類問題 第 5 章 正規化迴歸 5.1 正規化:抑制過擬合 5.2 嶺迴歸 5.3 幾何角度看嶺迴歸 5.4 套索迴歸 5.5 幾何角度看套索迴歸 5.6 彈性網路迴歸 第 6 章 貝氏迴歸 6.1 回顧貝氏推斷 6.2 貝氏迴歸:無資訊先驗 6.3 使用PyMC 完成貝氏迴歸 6.4 貝氏角度理解嶺正規化 6.5 貝氏角度理解套索正規化 第 7 章 高斯過程 7.1 高斯過程原理 7.2 解決迴歸問題 7.3 解決分類問題 第 3 篇 分類 第 8 章 k 最近鄰分類 8.1 k 最近鄰分類原理:近朱者赤,近墨者黑 8.2 二分類:非紅,即藍 8.3 三分類:非紅,不是藍,就是灰 8.4 近鄰數量k 影響投票結果 8.5 投票權重:越近,影響力越高 8.6 最近質心分類:分類邊界為中垂線 8.7 k-NN 迴歸:非參數迴歸 第 9 章 單純貝氏分類 9.1 重逢貝氏 9.2 單純貝氏的「單純」之處 9.3 高斯,你好 第 10 章 高斯判別分析 10.1 又見高斯 10.2 六類協方差矩陣 10.3 決策邊界解析解 10.4 第一類 10.5 第二類 10.6 第三類 10.7 第四類 10.8 第五類 10.9 第六類 10.10 線性和二次判別分析 第 11 章 支援向量機 11.1 支援向量機 11.2 硬間隔:處理線性可分 11.3 構造最佳化問題 11.4 支援向量機處理二分類問題 11.5 軟間隔:處理線性不可分 第 12 章 核心技巧 12.1 映射函數:實現升維 12.2 核心技巧SVM 最佳化問題 12.3 線性核心:最基本的核心函數 12.4 多項式核心 12.5 二次核心:二次曲面 12.6 三次核心:三次曲面 12.7 高斯核心:基於徑向基函數 12.8 Sigmoid 核心 第 13 章 決策樹 13.1 決策樹:可以分類,也可以迴歸 13.2 資訊熵:不確定性度量 13.3 資訊增益:透過劃分,提高確定度 13.4 基尼指數:指數越大,不確定性越高 13.5 最大葉節點:影響決策邊界 13.6 最大深度:控制樹形大小 第 4 篇 降維 第 14 章 主成分分析 14.1 主成分分析 14.2 原始資料 14.3 特徵值分解 14.4 正交空間 14.5 投影結果 14.6 還原 14.7 雙標圖 14.8 陡坡圖 第 15 章 截斷奇異值分解 15.1 幾何角度看奇異值分解 15.2 四種SVD 分解 15.3 幾何角度看截斷型SVD 15.4 最佳化角度看截斷型SVD 15.5 分析鳶尾花照片 第 16 章 主成分分析進階 16.1 從「六條技術路線」說起 16.2 協方差矩陣:中心化資料 16.3 格拉姆矩陣:原始資料 16.4 相關性係數矩陣:標準化資料 第 17 章 主成分分析與迴歸 17.1 正交迴歸 17.2 一元正交迴歸 17.3 幾何角度看正交迴歸 17.4 二元正交迴歸 17.5 多元正交迴歸 17.6 主元迴歸 17.7 偏最小平方迴歸 第 18 章 核心主成分分析 18.1 核心主成分分析 18.2 從主成分分析說起 18.3 用核心技巧完成核心主成分分析 第 19 章 典型相關分析 19.1 典型相關分析原理 19.2 從一個協方差矩陣考慮 19.3 以鳶尾花資料為例 第 5 篇 聚類 第 20 章 K 平均值聚類 20.1 K 平均值聚類 20.2 最佳化問題 20.3 迭代過程 20.4 肘部法則:選定聚類叢集值 20.5 輪廓圖:選定聚類叢集值 20.6 沃羅諾伊圖 第 21 章 高斯混合模型 21.1 高斯混合模型 21.2 四類協方差矩陣 21.3 分量數量 21.4 硬聚類和軟聚類 第 22 章 最大期望演算法 22.1 最大期望 22.2 E 步:最大化期望 22.3 M 步:最大化似然機率 22.4 迭代過程 22.5 多元GMM 迭代 第 23 章 層次聚類 23.1 層次聚類 23.2 樹狀圖 23.3 叢集間距離 23.4 親近度層次聚類 第 24 章 密度聚類 24.1 DBSCAN 聚類 24.2 調節參數 第 25 章 譜聚類 25.1 譜聚類 25.2 距離矩陣 25.3 相似度 25.4 無向圖 25.5 拉普拉斯矩陣 25.6 特徵值分解
成為AI無法取代的那
AI應用全解,跨越技
LLM資安教戰手冊|
工程師下班有約:企業
深度學習詳解|台大李
AI 提問 X 學習
我們與機器人的光明未
全面掌握DeepSe
Microsoft
AI時代的計算機概論
為了保障您的權益,新絲路網路書店所購買的商品均享有到貨七天的鑑賞期(含例假日)。退回之商品必須於鑑賞期內寄回(以郵戳或收執聯為憑),且商品必須是全新狀態與完整包裝(商品、附件、內外包裝、隨貨文件、贈品等),否則恕不接受退貨。