바닥부터 배우는 강화 학습 | 북파니

바닥부터 배우는 강화 학습

본문 바로가기

회원메뉴

쇼핑몰 검색

통합검색

바닥부터 배우는 강화 학습 강화 학습 기초에 대한 쉽고 정확한 개념 설명

정가
22,000 원
판매가
20,900 원    5 %↓
배송비
무료배송
배송일정
48시간 배송 예정 배송일정안내
ISBN
9788931463170
쪽수 : 304쪽
소득공제 가능도서 (자세히보기)
주문수량
 
도서 소개
강화 학습 기초 이론부터 블레이드 & 소울 비무 AI 적용까지 이 책은 강화 학습을 모르는 초보자도 쉽게 이해할 수 있도록 도와주는 입문서입니다. 현업의 강화 학습 전문가가 직접 설명해 강화 학습에 가장 기본이 되는 개념 설명부터 실무 사례까지 한 권으로 정리했습니다. 강화 학습의 뼈대가 되는 MDP부터 딥러닝과 강화 학습이 만나는 지점 및 학습 방법론, 알파고, 알파고 제로까지 다룹니다. 나아가 유명 게임인 블레이드&소울 비무에 실제로 강화 학습을 적용하며 실무에서 얻은 팁과 노하우를 배워봅니다.
상세이미지
저자 소개
저자 : 노승은 민족사관고등학교 졸업 서울대학교 자유전공학부 컴퓨터공학/경제학 전공 서울대학교 융합과학기술대학원 석사 현) 엔씨소프트 GameAI랩 강화 학습 연구원 현) 강화 학습 유튜브 채널 “팡요랩” 운영
목 차
Chapter 1. 강화 학습이란 Chapter 2. 마르코프 결정 프로세스 Chapter 3. 벨만 방정식 Chapter 4. MDP를 알 때의 플래닝 Chapter 5. MDP를 모를 때 밸류 평가하기 Chapter 6. MDP를 모를 때 최고의 정책 찾기 Chapter 7. Deep RL 첫걸음 Chapter 8. 가치 기반 에이전트 Chapter 9. 정책 기반 에이전트 Chapter 10. 알파고와 MCTS Chapter 11. 블레이드&소울 비무 AI 만들기
출판사 서평
[구성 소개] Chapter 1. 강화 학습이란 바둑에서 시작하여 게임, 금융, 로봇까지 수많은 분야에서 강화학습을 통해 전례 없는 수준의 AI가 만들어졌습니다. 기존 학습 방법론과 어떤 차이가 있었기에 이런 도약이 가능했을까요? 그에 대한 답은 강화 학습이 무엇인가라는 작은 이야기부터 시작합니다. Chapter 2. 마르코프 결정 프로세스 문제를 풀기 위해서는 먼저 문제가 잘 정의되어야 합니다. 강화 학습에서 문제를 잘 정의하려면 주어진 문제를 MDP(Markov Decision Process)의 형태로 만들어야 합니다. MDP에 대해 속속들이 알아봅니다. Chapter 3. 벨만 방정식 대부분의 강화 학습 알고리즘은 밸류를 구하는 것에서 출발합니다. 그리고 밸류를 구하는 데 뼈대가 되는 수식이 바로 벨만 방정식입니다. 벨만 기대 방정식과 벨만 최적 방정식이라는 두 종류의 방정식을 배워봅니다. Chapter 4. MDP를 알 때의 플래닝 벨만 방정식 학습으로 간단한 MDP를 풀 수 있습니다. 벨만 방정식을 반복적으로 적용하는 방법론을 통해 아주 간단한 MDP를 직접 풀어봅니다. Chapter 5. MDP를 모를 때 밸류 평가하기 MDP의 전이 확률과 보상 함수를 모를 때에 대한 이야기가 시작됩니다. 주어진 수식을 이용해 정확한 값을 계산하는 대신, 수많은 샘플을 통해 근사하는 “샘플 기반 방법론”을 배워봅니다. Chapter 6. MDP를 모를 때 최고의 정책 찾기 Control 문제를 해결할 차례입니다. 밸류를 계산할 수 있기 때문에 이를 이용해 정책을 찾는 것은 한결 쉽습니다. 그 유명한 Q러닝을 배워봅니다. Chapter 7. Deep RL 첫걸음 커다란 MDP의 세계를 항해하기 위해서 우리에게는 또 다른 무기가 하나 필요합니다. 바로 “딥러닝” 입니다. 딥러닝과 강화 학습이 만나 Deep RL이라는 유연하고도 범용적인 방법론이 탄생합니다. 먼저 딥러닝에 대한 이야기부터 시작합니다. Chapter 8. 가치 기반 에이전트 신경망을 이용해 액션 밸류 네트워크를 학습하면 그게 곧 하나의 에이전트가 될 수 있습니다. 아타리 게임을 플레이 하던 DQN이 바로 이 방식입니다. 가치 함수만을 가지고 움직이는 에이전트, 즉 가치 기반 에이전트에 대해 알아보겠습니다. Chapter 9. 정책 기반 에이전트 딥러닝과 정책 함수가 결합하면 강력한 정책 네트워크를 만들어 냅니다. 보상 및 밸류 네트워크를 이용해 직접적으로 정책 네트워크를 학습하는 방법에 대해 알아보겠습니다. 이는 수많은 최신 강화 학습 알고리즘의 뿌리가 되는 방법론입니다. Chapter 10. 알파고와 MCTS 인류 최고의 바둑 기사를 이긴 AI를 만드는 과정도 분해해서 생각하면 간단한 방법론들의 조합입니다. 이제 한 걸음만 더 가면 알파고를 완전히 이해할 수 있습니다. 그 마지막 한 조각인 MCTS를 소개하고, 이를 통해 알파고를 낱낱이 분해합니다. Chapter 11. 블레이드&소울 비무 AI 만들기 복잡한 실시간 격투 게임에 강화 학습을 적용하는 일은 어떤 과정을 거칠까요? 블레이드&소울에 강화 학습을 적용하여 에이전트를 학습시키는 과정과 시행착오에 대해 소개합니다.
고객 리뷰
평점 리뷰제목 작성자 작성일 내용보기

아직 작성된 리뷰가 없습니다.

반품/교환
· 회사명 : 북앤북스문고   · 주소 : 제주특별자치도 제주시 1100로 3308 B1  
· 대표자 : 김대철   · 사업자 등록번호 : 661-10-02383  
· 통신판매업신고번호 : 2023-제주노형-0169   · 개인정보 보호책임자 : 최재혁  

고객센터

(평일 09:30~17:30)
(점심 12:00~13:00)
· 전화 : 064)725-7279 (발신자 부담)
    064)757-7279 (발신자 부담)
· 팩스 : 064)759-7279
· E-Mail : bookpani@naver.com
Copyright © 2019 북앤북스문고. All Rights Reserved.