登入
|
註冊
|
會員中心
|
結帳
|
培訓課程
|
魔法弟子
|
自資出版
|
電子書
|
客服中心
書名
出版社
作者
isbn
編號
5050魔法眾籌
|
NG書城
|
國際級品牌課程
|
優惠通知
|
霹靂英雄音樂精選
|
App程式設計入門:iPhone、iPad(附光碟)
此作者無相關書籍
文學小說
文學
|
小說
商管創投
財經投資
|
行銷企管
人文藝坊
宗教、哲學
社會、人文、史地
藝術、美學
|
電影戲劇
勵志養生
醫療、保健
料理、生活百科
教育、心理、勵志
進修學習
電腦與網路
|
語言工具
雜誌、期刊
|
軍政、法律
參考、考試、教科用書
科學工程
科學、自然
|
工業、工程
家庭親子
家庭、親子、人際
青少年、童書
玩樂天地
旅遊、地圖
|
休閒娛樂
漫畫、插圖
|
限制級
新一代AI霸主:深度強化學習從基礎開始到專案開發
作者:
董豪/丁子涵/仉尚航
分類:
電腦與網路
/
程式語言
出版社:
深智數位
出版日期:2022/2/21
ISBN:9789860776829
書籍編號:kk0545806
頁數:656
定價:
980
元
優惠價:
79
折
774
元
書價若有異動,以出版社實際定價為準
訂購後立即為您進貨
訂購後立即為您進貨:目前無庫存量,讀者下訂後,開始進入調書程序,一般天數約為2-10工作日(不含例假日)。
團購數最低為 15 本以上
評價數:
(請將滑鼠移至星星處進行評價)
目前平均評價:
文字連結
複製語法
新一代AI霸主:深度強化學習從基礎開始到專案開發
圖片連結
複製語法
分
享
內容簡介
作者介紹
書籍目錄
同類推薦
新一代AI霸主:深度強化學習從基礎開始到專案開發 內容簡介 本書是為「深度強化學習」的專家所提供的最佳參考書! 從 2013 年開始,深度強化學習已漸漸地以多種方式改變了我們的生活和世界,會下棋的AlphaGo技術展示了超過專業選手的理解能力的"圍棋之美"。 類似的情況也會發生在技術、醫療和金融領域。深度強化學習探索了一個人類最基本的問題:人類是如何透過與環境互動進行學習的?這個機制可能成為逃出“巨量資料陷阱”的關鍵因素,作為一條強人工智慧的必經之路,通向人類智慧尚未企及的地方。 本書由一群對機器學習充滿熱情的極強專家完成,展示深度強化學習的世界,透過實例和經驗介紹,加深對深度強化學習的理解。 本書覆蓋內容範圍之廣,從深度強化學習的基礎理論知識到包含程式細節的技術實現描述,是初學者和科學研究人員非常好的學習教材。 本書特色: ●深度學習精解 〇強化學習入門指引 ●深度Q網路,DQN、Double DQN、Actor-Critic 〇模仿學習 ●整合學習詳解 〇分層、多智慧體強化學習 ●平行計算 〇Learning to Run實作 ●圖型強化實作 〇模擬環境機器人實作 ●Arena多智慧體強化學習平台實作 〇強化學習技巧及最完整所有演算法說明實作
作者簡介 董豪 北京大學計算機學院、前沿計算研究中心助理教授、博士生導師,鵬城國家實驗室及浙江省北大資訊技術高等研究院雙聘成員。 於2019年獲得英國帝國理工學院博士學位,研究方向為計算機視覺和機器人。 致力於推廣人工智慧技術,是TensorLayer的創始人並獲得ACM MM最佳開源軟體獎。 丁子涵 英國帝國理工學院碩士。獲普林斯頓大學博士生全額獎學金,曾在加拿大 Borealis AI、騰訊 Robotics X 實驗室有過工作經歷。大學就讀中國科學技術大學,獲物理和電腦雙學位。研究方向主要涉及強化學習、機器人控制、電腦視覺等。在 ICRA、NeurIPS、AAAI、IJCAI、Physical Review 等頂級期刊與會議發表多篇論文, 是 TensorLayer-RLzoo 、TensorLet 和Arena 開放原始碼專案的貢獻者。 仉尚航 北京大學計算機學院助理教授、研究員。 於2018年博士畢業於美國卡內基梅隆大學,後於2020年初加入加州大學伯克利分校BAIR實驗室 (Berkeley AI Research Lab) 任博士後研究員。 研究方向主要為開放環境泛化機器學習理論與系統,同時在計算機視覺和強化學習方向擁有豐富研究經驗。 在人工智慧頂級期刊和會議上發表論文30餘篇,並申請5項美中專利。 榮獲世界人工智慧頂級會議AAAI’2021 最佳論文獎,美國2018 "EECS Rising Star",Adobe學術合作基金, Qualcomm創新獎提名等。 曾多次在國際頂級會議NeurIPS、ICML上組織Workshop,多次作為國際旗艦期刊和會議的審稿人或程式委員,擔任AAAI 2022 高級程式委員。
目錄 基礎部分 01 深度學習入門 1.1 簡介 1.2 感知器 1.3 多層感知器 1.4 啟動函數 1.5 損失函數 1.6 最佳化 1.7 正則化 1.8 卷積神經網路 1.9 循環神經網路 1.10 深度學習的實現範例 02 強化學習入門 2.1 簡介 2.2 線上預測和線上學習 2.3 馬可夫過程 2.4 動態規劃 2.5 蒙地卡羅 2.6 時間差分學習 2.7 策略最佳化 03 強化學習演算法分類 3.1 以模型為基礎的方法和無模型的方法 3.2 以價值為基礎的方法和以策略為基礎的方法 3.3 蒙地卡羅方法和時間差分方法 3.4 線上策略方法和離線策略方法 04 深度Q 網路 4.1 Sarsa 和 Q-Learning 4.2 為什麼使用深度學習:價值函數逼近 4.3 DQN 4.4 Double DQN 4.5 Dueling DQN 4.6 優先經驗重播 4.7 其他改進內容:多步學習、雜訊網路和值分佈強化學習 4.8 DQN 程式實例 05 策略梯度 5.1 簡介 5.2 REINFORCE:初版策略梯度 5.3 Actor-Critic 5.4 生成對抗網路和Actor-Critic 5.5 同步優勢Actor-Critic 5.6 非同步優勢Actor-Critic 5.7 信賴域策略最佳化 5.8 近端策略最佳化 5.9 使用Kronecker 因數化信賴域的Actor-Critic 5.10 策略梯度程式例子 06 深度Q 網路和Actor-Critic 的結合 6.1 簡介 6.2 深度確定性策略梯度演算法 6.3 孿生延遲DDPG 演算法 6.4 柔性Actor-Critic 演算法 6.5 程式例子 研究部分 07 深度強化學習的挑戰 7.1 樣本效率 7.2 學習穩定性 7.3 災難性遺忘 7.4 探索 7.5 元學習和表徵學習 7.6 多智慧體強化學習 7.7 模擬到現實 7.8 大規模強化學習 7.9 其他挑戰 08 模仿學習 8.1 簡介 8.2 行為複製方法 8.3 逆向強化學習方法 8.4 從觀察量進行模仿學習 8.5 機率性方法 8.6 模仿學習作為強化學習的初始化 8.7 強化學習中利用示範資料的其他方法 09 整合學習與規劃 9.1 簡介 9.2 以模型為基礎的方法 9.3 整合模式架構 9.4 以模擬為基礎的搜索 10 分層強化學習 10.1 簡介 10.2 選項框架 10.3 封建制強化學習 10.4 其他工作 11 多智慧體強化學習 11.1 簡介 11.2 最佳化和均衡 11.3 競爭與合作 12 平行計算 12.1 簡介 12.2 同步和非同步 12.3 平行計算網路 12.4 分散式強化學習演算法 12.5 分散式運算架構 應用部分 13 Learning to Run 13.1 NeurIPS 2017 挑戰:Learning to Run 13.2 訓練智慧體 14 堅固的圖型增強 14.1 圖型增強 14.2 用於堅固處理的強化學習 15 AlphaZero 15.1 簡介 15.2 組合博弈 15.3 蒙地卡羅樹搜索 15.4 AlphaZero:棋類遊戲的通用演算法 16 模擬環境中機器人學習 16.1 機器人模擬 16.2 強化學習用於機器人學習任務 17 Arena:多智慧體強化學習平台 17.1 安裝 17.2 用Arena 開發遊戲 17.3 MARL訓練 18 深度強化學習應用實踐技巧 18.1 概覽:如何應用深度強化學習 18.2 實現階段 18.3 訓練和偵錯階段 複習部分 A 演算法複習表 參考文獻 B 演算法速查表 B.1 深度學習 B.2 強化學習 B.3 深度強化學習 B.4 高等深度強化學習 C 中英文對照表
Java SE 17
自己動手做虛擬機器:
Python資料科學
Python 教學手
從零開始學Visua
Python 投資停
Software A
Java也可以K8s
Azure DevO
C#程式設計從入門到
為了保障您的權益,新絲路網路書店所購買的商品均享有到貨七天的鑑賞期(含例假日)。退回之商品必須於鑑賞期內寄回(以郵戳或收執聯為憑),且商品必須是全新狀態與完整包裝(商品、附件、內外包裝、隨貨文件、贈品等),否則恕不接受退貨。