登入
|
註冊
|
會員中心
|
結帳
|
培訓課程
魔法弟子
|
自資出版
|
電子書
|
客服中心
|
智慧型立体會員
書名
出版社
作者
isbn
編號
5050魔法眾籌
|
NG書城
|
國際級品牌課程
|
優惠通知
|
霹靂英雄音樂精選
|
iPhone 4S JB解禁秘術:Cydia 超限軟體300+
此作者無相關書籍
文學小說
文學
|
小說
商管創投
財經投資
|
行銷企管
人文藝坊
宗教、哲學
社會、人文、史地
藝術、美學
|
電影戲劇
勵志養生
醫療、保健
料理、生活百科
教育、心理、勵志
進修學習
電腦與網路
|
語言工具
雜誌、期刊
|
軍政、法律
參考、考試、教科用書
科學工程
科學、自然
|
工業、工程
家庭親子
家庭、親子、人際
青少年、童書
玩樂天地
旅遊、地圖
|
休閒娛樂
漫畫、插圖
|
限制級
打下最紮實AI基礎不依賴套件:機器學習神經網路穩健前進
作者:
董洪偉
分類:
電腦與網路
/
綜論
出版社:
深智數位
出版日期:2022/1/20
ISBN:9789860776713
書籍編號:kk0544742
頁數:848
定價:
1200
元
優惠價:
79
折
948
元
書價若有異動,以出版社實際定價為準
訂購後立即為您進貨
訂購後立即為您進貨:目前無庫存量,讀者下訂後,開始進入調書程序,一般天數約為2-10工作日(不含例假日)。
團購數最低為 20 本以上
評價數:
(請將滑鼠移至星星處進行評價)
目前平均評價:
文字連結
複製語法
打下最紮實AI基礎不依賴套件:機器學習神經網路穩健前進
圖片連結
複製語法
分
享
內容簡介
作者介紹
書籍目錄
同類推薦
打下最紮實AI基礎不依賴套件:機器學習神經網路穩健前進 內容簡介 ★★★★★【848頁磅礡登場】、【最紮實機器學習】★★★★★ 外行人才買武器,高手自己打造神兵利器! 不靠TF/Keras/PyTorch,用NumPy硬幹所有機器學習公式理論打基礎,極緻深入研究原理,獲得微積分、機率、張量最高等級,之後AI學習路快速平順又輕鬆 沒錯,某同學用Tensorflow/Keras實作一個影像辨識,另一個同學用PyTorch做出機器翻譯,但是.....他們全部都非常崇拜你,為什麼? 套件工具用的熟,但原理卻只略知皮毛,走的路一定無法長遠!只有真正在微積分、矩陣、張量、機率、線性代數上打好完整的基礎,在機器學習/深度學習的路上才能走的又長又遠又紮實。 不需要羨慕別人會用yolo、bert,當你看完本書的所有AI公式、理論,然後手動用NumPy、sklearn把這些公式理論親手推導一次之後,這些工具套件,這些新興技術,什麼CNN、RNN、Seq2seq對你來說,只是簡單數學公式的排列組合罷了! 非常期待這種書籍的出現吧!BINGO!本書就是你夢寐以求的威力彩頭獎書!把每個深度學習常出現的名詞,Sigmoid、Softmax、CrossEntropy、Adam、SGD、CNN、RNN、LSTM、GRU.....竟然全部用NumPy硬幹一遍!看完讀懂這本書,立即晉升大師,成為機器學習/深度學習/人工智慧的活生生教科書。 NumPy超人一擊Strike ✪Sigmoid ✪Softmax ✪CrossEntropy ✪Adam ✪SGD ✪CNN ✪RNN ✪LSTM ✪GRU 本書特色 ★原理講解通俗易懂,同時教你如何從底層而非呼叫深度學習庫編寫深度學習演算法 ★由淺入深,從最簡單的回歸模型過渡到神經網路模型 ★從問題到概念的方式剖析深度學習的基本概念和原理 ★用簡單的範例展現模型和演算法的核心 ★讀者不需要借助任何深度學習函數庫,就可以從0開始建構屬於自己的深度學習庫
作者簡介 董洪偉 2008-2009年美國Texas A&M大學訪問學者(Jinxiang Chai)、2016年休士頓大學訪問研究。 研究領域:機器學習(深度學習)、平行計算(高性能計算HPC)、電腦視覺(CV)、圖形學(CG) (如三維物理動畫、遊戲程式設計、三維幾何處理、3D掃描/及列印)、生物資訊學、數控技術等方面的研究和教學工作。
目錄 01 程式設計和數學基礎 1.1 Python 快速入門 1.2 張量函數庫NumPy 1.3 微積分 1.4 機率基礎 02 梯度下降法 2.1 函數極值的必要條件 2.2 梯度下降法基礎 2.3 梯度下降法的參數最佳化策略 2.4 梯度驗證 2.5 分離梯度下降法與參數最佳化策略 03 線性回歸、邏輯回歸和softmax 回歸 3.1 線性回歸 3.2 資料的規範化 3.3 模型的評估 3.4 正則化 3.5 邏輯回歸 3.6 softmax 回歸 3.7 批次梯度下降法和隨機梯度下降法 04 神經網路 4.1 神經網路概述 4.2 反向求導 4.3 實現一個簡單的深度學習框架 05 改進神經網路性能的基本技巧 5.1 資料處理 5.2 參數偵錯 5.3 批次規範化 5.4 正則化 5.5 梯度爆炸和梯度消失 06 卷積神經網路 6.1 卷積入門 6.2 卷積神經網路概述 6.3 卷積的矩陣乘法 6.4 基於座標索引的快速卷積 6.5 典型卷積神經網路結構 07 循環神經網路 7.1 序列問題和模型 7.2 循環神經網路基礎 7.3 穿過時間的反向傳播 7.4 單層循環神經網路的實現 7.5 循環神經網路語言模型和文字的生成 7.6 循環神經網路中的梯度爆炸和梯度消失 7.7 長短期記憶網路 7.8 門控循環單元 7.9 循環神經網路的類別及其實現 7.10 多層循環神經網路和雙向循環神經網路 7.11 Seq2Seq 模型 08 生成模型 8.1 生成模型概述 8.2 自動編碼器 8.3 變分自動編碼器 8.4 生成對抗網路 8.5 生成對抗網路建模實例 8.6 生成對抗網路的損失函數及其機率解釋 8.7 改進的損失函數—Wasserstein GAN 8.8 深度卷積對抗網路 A 參考文獻
NotebookLM
零基礎玩轉LLM應用
大模型時代:從 Ch
電子商務與ChatG
不懂程式也能自架專屬
一學就會的 AI 影
AI超神應用術:Go
人工智慧漫畫全圖解:
Python修仙之路
ChatGPT 5實
為了保障您的權益,新絲路網路書店所購買的商品均享有到貨七天的鑑賞期(含例假日)。退回之商品必須於鑑賞期內寄回(以郵戳或收執聯為憑),且商品必須是全新狀態與完整包裝(商品、附件、內外包裝、隨貨文件、贈品等),否則恕不接受退貨。