登入
|
註冊
|
會員中心
|
結帳
|
培訓課程
魔法弟子
|
自資出版
|
電子書
|
客服中心
|
智慧型立体會員
書名
出版社
作者
isbn
編號
5050魔法眾籌
|
NG書城
|
國際級品牌課程
|
優惠通知
|
霹靂英雄音樂精選
|
iPhone 4S JB解禁秘術:Cydia 超限軟體300+
此作者無相關書籍
文學小說
文學
|
小說
商管創投
財經投資
|
行銷企管
人文藝坊
宗教、哲學
社會、人文、史地
藝術、美學
|
電影戲劇
勵志養生
醫療、保健
料理、生活百科
教育、心理、勵志
進修學習
電腦與網路
|
語言工具
雜誌、期刊
|
軍政、法律
參考、考試、教科用書
科學工程
科學、自然
|
工業、工程
家庭親子
家庭、親子、人際
青少年、童書
玩樂天地
旅遊、地圖
|
休閒娛樂
漫畫、插圖
|
限制級
用Python實作強化學習:使用TensorFlow與OpenAI Gym
HandsOn Reinforcement Learning with Python
作者:
Sudharsan Ravichandiran
譯者:
CAVEDU教育團隊 曾吉弘
分類:
電腦與網路
/
綜論
出版社:
碁峰
出版日期:2019/5/30
ISBN:9789865021412
書籍編號:kk0489379
頁數:328
定價:
520
元
優惠價:
82
折
426
元
書價若有異動,以出版社實際定價為準
訂購後立即為您進貨
訂購後立即為您進貨:目前無庫存量,讀者下訂後,開始進入調書程序,一般天數約為2-10工作日(不含例假日)。
團購數最低為 20 本以上
評價數:
(請將滑鼠移至星星處進行評價)
目前平均評價:
文字連結
複製語法
<a href='https://www.silkbook.com/book_detail.asp?goods_ser=kk0489379'>用Python實作強化學習:使用TensorFlow與OpenAI Gym</a>
圖片連結
複製語法
<a href='https://www.silkbook.com/book_detail.asp?goods_ser=kk0489379'><img src='https://www.silkbook.com/mall_image/bk/kk0489379.jpg' ALT='用Python實作強化學習:使用TensorFlow與OpenAI Gym' height='120' width='90'></a>
分
享
內容簡介
作者介紹
書籍目錄
同類推薦
用Python實作強化學習:使用TensorFlow與OpenAI Gym 內容簡介 強化學習可說是能自我演進的機器學習,能帶領我們達到真正的人工智慧。本書好讀又容易上手,運用了大量Python範例來從頭解釋所有東西。 本書從強化學習的簡介開始,接著是OpenAI Gym與TensorFlow。您會認識各種RL演算法與重要觀念,例如Markov決策過程、蒙地卡羅法與動態規劃,包括價值迭代與策略迭代。本書提供了非常豐富的範例幫助您認識各種深度強化學習演算法,例如競爭DQN、DRQN、A3C、PPO與TRPO。您還會學到想像增強代理、透過人類偏好來學習、DQfD、HER以及更多強化學習的最新發展。 本書精彩內容: .理解強化學習方法、演算法與重要元素的相關基礎 .使用OpenAI Gym與TensorFlow來訓練代理 .理解Markov決策過程、Bellman最佳化與TD學習 .運用多種演算法來解決多臂式吃角子老虎問題 .熟悉各種深度學習演算法,如RNN、LSTM、CNN與其應用 .使用DRQN演算法來建置智能代理來玩毀滅戰士遊戲 .使用DDPG來教導代理來玩月球冒險遊戲 .使用競爭DQN來訓練代理來玩賽車遊戲
作者簡介 Sudharsan Ravichandiran 是位資料科學家、研究者、人工智慧狂熱者與YouTuber(請搜尋Sudharsan reinforcement learning),在Anna大學取得資訊科技學士學位,研究領域是深度學習與強化學習的實務性實作,包含字元語言處理與電腦視覺。
目錄 第一章 認識強化學習 介紹何謂強化學習以及其運作原理。介紹強化學習的各種元素,如代理、環境、策略與模型,並帶領讀者認識用於強化學習的各種環境、平台與函式庫,以及強化學習的一些應用。 第二章 認識OpenAI與TensorFlow 建置使用強化學習的電腦環境,包括Anaconda、Docker、OpenAI Gym、Universe與TensorFlow的安裝設定,並說明如何在OpenAI Gym中來模擬代理,以及如何建置一個會玩電玩遊戲的機器人程式。另外也會解說TensorFlow的基礎觀念以及如何使用TensorBoard來進行視覺化操作。 第三章 Markov決策過程與動態規劃 從介紹何謂Markov鍊與Markov流程開始,說明如何使用Markov決策流程來對強化學習問題來建模。接著是一些重要的基本概念,例如價值函數、Q函數與Bellman方程式。然後介紹動態規劃以及如何運用價值迭代與策略迭代來解決凍湖問題。 第四章 使用Monte Carlo方法來玩遊戲 介紹了Monte Carlo法與不同類型的 Monte Carlo預測法,如首次拜訪MC與每次拜訪MC,並說明如何使用Monte Carlo法來玩二十一點這項撲克牌遊戲。最後會介紹現時與離線這兩種不同的Monte Carlo控制方法。 第五章 時間差分學習 介紹時間差分(TD)學習、TD預測與TD的即時/離線控制法,如Q學習與SARSA。並說明如何使用Q學習與SARSA來解決計程車載客問題。 第六章 多臂式吃角子老虎機問題 要討論的是強化學習的經典問題:多臂式吃角子老虎機(MAB)問題,也稱為k臂式吃角子老虎機(MAB)問題。介紹如何使用各種探索策略來解決這個問題,例如epsilon-貪婪、softmax探索、UCB與湯普森取樣。本章後半也會介紹如何運用MAB來對使用者顯示正確的廣告橫幅。 第七章 深度學習的基礎概念 介紹深度學習的重要觀念。首先,說明何謂神經網路,接著是不同類型的神經網路,如RNN、LSTM與CNN等。本章將實作如何自動產生歌詞與分類時尚產品。 第八章 使用深度Q網路來玩Atari遊戲 介紹了一套最常用的深度強化學習演算法:深度Q網路(DQN)。接著介紹DQN的各個元件,並說明如何運用DQN來建置代理來玩Atari遊戲。最後介紹一些新型的DQN架構,如雙層DQN與競爭DQN。 第九章 使用深度循環Q網路來玩毀滅戰士 介紹深度循環Q網路(DRQN),並說明它與DQN的差異。本章會運用DRQN來建置代理來玩毀滅戰士遊戲。同時介紹深度專注循環Q網路,它在DRQN架構中加入了專注機制。 第十章 非同步優勢動作評價網路 介紹了非同步優勢動作評價網路(A3C)的運作原理。我們將帶領你深入了解A3C的架構並學會如何用它來建置會爬山的代理。 第十一章 策略梯度與最佳化 說明策略梯度如何在不需要Q函數的前提下,幫助我們找到正確的策略。同時還會介紹深度確定性策略梯度法,以及最新的策略最佳化方法,如信賴域策略最佳化與近端策略最佳化。 第十二章 使用DQN來玩賽車遊戲 本章將帶領你運用競爭DQN來建置代理,讓它學會玩賽車遊戲。 第十三章 近期發展與下一步 介紹強化學習領域中的各種最新發展,例如想像增強代理、從人類偏好來學習、由示範來進行的深度Q學習以及事後經驗回放等等,然後談到了不同的強化學習方法,如層次強化學習與逆向強化學習。
成為AI無法取代的那
AI應用全解,跨越技
LLM資安教戰手冊|
工程師下班有約:企業
深度學習詳解|台大李
AI 提問 X 學習
我們與機器人的光明未
全面掌握DeepSe
Microsoft
AI時代的計算機概論
為了保障您的權益,新絲路網路書店所購買的商品均享有到貨七天的鑑賞期(含例假日)。退回之商品必須於鑑賞期內寄回(以郵戳或收執聯為憑),且商品必須是全新狀態與完整包裝(商品、附件、內外包裝、隨貨文件、贈品等),否則恕不接受退貨。
|
回首頁
|
合作提案
|
隱私權聲明
|
加入供應商
|
請以 Chrome 、 Safari 最新版本瀏覽,可得到最舒適的閱讀效果!
新絲路網路書店 - 知識服務新思路
采舍國際有限公司 統編 : 28464037
智慧型立体學習股份有限公司 統編 : 90170639
|
全球華語魔法講盟股份有限公司 統編 : 68602802
|
元宇宙股份有限公司 統編 : 83210333
Your Personal Knowledge Service 客服專線: 02-8245-8318 E-mail: service@book4u.com.tw 客服時間:09:00-12:00~13:30-18:00(週一至週五)
c
2025
silkbook.com Inc., All Rights Reserved.