logo
logo
x
바코드검색
BOOKPRICE.co.kr
책, 도서 가격비교 사이트
바코드검색

인기 검색어

실시간 검색어

검색가능 서점

도서목록 제공

패키지 없이 R로 구현하는 심층 강화학습

패키지 없이 R로 구현하는 심층 강화학습

(손으로 풀어보는 Q-Learning부터 R로 구현하는 심층 강화학습까지)

이경택, 박이삭, 최영제 (지은이)
비제이퍼블릭
26,000원

일반도서

검색중
서점 할인가 할인률 배송비 혜택/추가 실질최저가 구매하기
23,400원 -10% 0원
카드할인 10%
2,340원
21,060원 >
알라딘 로딩중
yes24 로딩중
교보문고 로딩중
11st 로딩중
영풍문고 로딩중
쿠팡 로딩중
쿠팡로켓 로딩중
G마켓 로딩중
notice_icon 검색 결과 내에 다른 책이 포함되어 있을 수 있습니다.

중고도서

검색중
서점 유형 등록개수 최저가 구매하기
로딩중

eBook

검색중
서점 정가 할인가 마일리지 실질최저가 구매하기
aladin 20,800원 -10% 1040원 17,680원 >

책 이미지

패키지 없이 R로 구현하는 심층 강화학습
eBook 미리보기

책 정보

· 제목 : 패키지 없이 R로 구현하는 심층 강화학습 (손으로 풀어보는 Q-Learning부터 R로 구현하는 심층 강화학습까지)
· 분류 : 국내도서 > 컴퓨터/모바일 > 컴퓨터 공학 > 컴퓨터공학/전산학 개론
· ISBN : 9791165920746
· 쪽수 : 332쪽
· 출판일 : 2021-06-29

책 소개

머신러닝과 강화학습의 기본 개념부터 심층 강화학습의 알고리즘과 발전방향까지! 강화학습의 기본 요소와 작동 원리에 대해 상세히 다루는데, 딥러닝 프레임 워크를 사용하는 것이 아닌, R base code로 강화학습을 구현하여 강화학습 작동원리를 이해한다.

목차

Chapter 0. R 언어 소개
0.1 R 설치
> 0.1.1 Windows 버전 R 다운로드 <
> 0.1.2 mac OS 버전 R 다운로드 <
0.2 R 전용 통합 개발 환경(IDE) 설치

Chapter 1. 머신러닝이란 Machine Learning
1.1 머신러닝이 필요한 이유
> 1.1.1 머신러닝 학습시키기 <
> 1.1.2 손실 함수 <
> 1.1.3 머신러닝의 구분 <
1.2 딥러닝(Deep Learning)
> 1.2.1 딥러닝의 사례 <

Chapter 2. 딥러닝 Deep Learning
2.1 퍼셉트론(Perceptron)
2.2 Multi Layer Perceptron(MLP)
> 2.2.1 Feed Forward <
> 2.2.2 Back Propagation <
> 2.2.3 활성 함수(Activation Function) <
> 2.2.4 Gradient Descent Method <
> 2.2.5 Iteration & Batch Size <
> 2.2.6 딥러닝의 단점 및 극복 <
2.3 딥러닝(Deep Learning)
> 2.3.1 Universal Approximation Theorem <
> 2.3.2 Convolutional Neural Network(CNN) <
> 2.3.3 다양한 CNN 구조 <
> 2.3.4 Recurrent Neural Network(RNN) <
> 2.3.5 다양한 RNN 구조 <
> 2.3.6 GAN 학습 과정 - Feed Forward <
> 2.3.7 GAN 학습 과정 - Back Propagation <
2.4 R로 구현하는 신경망
> 2.4.1 Feed Forward <
> 2.4.2 Back Propagation <

Chapter 3. 강화학습 Reinforcement Learning
3.1 강화학습 정의 요소
> 3.1.1 상태(State) <
> 3.1.2 행동(Action) <
> 3.1.3 정책(Policy) <
> 3.1.4 보상(Reward) <
> 3.1.5 감가율과 감가 누적 보상(Discount factor and Return) <
> 3.1.6 상태 가치 함수(State Value Function) <
> 3.1.7 행동 가치 함수(Action Value Function) <
> 3.1.8 벨만 방정식(Bellman equation) <
> 3.1.9 몬테 카를로 학습(Monte-Carlo Learning, MC) <
> 3.1.10 시간 차 학습(Temporal Difference Learning, TD) <
> 3.1.11 정책 갱신 <
3.2 손으로 풀어보는 Q-Learning

Chapter 4. 심층 강화학습 Deep Reinforcement Learning
4.1 Deep Q-Learning with Experience Replay(DQN)
[예제 4-1] DQN으로 최적 경로 찾기
4.2 Prioritized Experience Replay (PerDQN)
[예제 4-2] PerDQN으로 최적 경로 찾기
4.3 Dueling DQN
4.4 Policy Gradient(PG)
> 4.4.1 REINFORCE Algorithm <
> 4.4.2 Actor-Critic <
4.5 Advantage Actor-Critic(A2C)
[예제 4-3] A2C로 최적 경로 찾기
4.6 Asynchronous Methods for Deep Reinforcement Learning(A3C)
4.7 강화학습의 발전 방향
> 4.7.1 다수의 에이전트(Multi Agent) <
> 4.7.2 희소 보상 문제(Sparse Reward Problem) <
4.8 Curiosity
> 4.8.1 Exploration Bonus <
> 4.8.2 Count-Based Exploration Bonus <
> 4.8.3 Curiosity의 개념 <
4.9 Self-Imitation Learning
[예제 4-4] SIL로 최적 경로 찾기(난이도 3)
4.10 Exploration by Random Network Distillation
[예제 4-5] RND로 최적 경로 찾기(난이도 3)

Chapter 5. 심층 강화학습을 이용한 프로젝트
5.1 1단계 프로젝트
> 5.1.1 Environment 소개 <
> 5.1.2 State 설계 <
> 5.1.3 Reward 설계 <
> 5.1.4 1단계 프로젝트 학습 코드 <
5.2 2단계 프로젝트
> 5.2.1 Environment 소개 <
> 5.2.2 State 설계 <
> 5.2.3 Reward 설계 <
> 5.2.4 2단계 프로젝트 학습 코드 <
5.3 3단계 프로젝트
> 5.3.1 Environment 소개 <
> 5.3.2 3단계 프로젝트 학습 코드 <

Chapter 6. 최신 강화학습 트렌드
6.1 Trust Region Policy Optimization(TRPO)
6.2 Proximal Policy Optimization(PPO)
6.3 Distributed Prioritized Experience Replay(Ape-X)
6.4 Never Give Up(NGU)
6.5 Rewarding Impact-Driven Exploration (RIDE)
6.6 BeBold
> 6.6.1 Episodic Restriction on Intrinsic Reward(ERIR) <
6.7 Surprise Minimizing Reinforcement Learning(SMiRL)

그림 출처
찾아보기

저자소개

이경택 (지은이)    정보 더보기
성균관대학교 통계학을 전공하고, 현재는 연세대학교 산업공학과에서 박사과정을 밟고 있다. 빅데이터 연합 학회 투빅스를 창설했으며, 데이터 분석 및 인공지능 관련 대회에서 다수 수상하였고, 데이터 분석과 인공지능 전 분야에 관심을 가지고 끊임없이 연구 중이다. 딥러닝과 강화학습에 관심이 많으며, 블로그 운영 및 다양한 강의 활동을 진행하고 있다.
펼치기
박이삭 (지은이)    정보 더보기
인하대학교에서 통계학을 전공하였다. 그 후 빅데이터 연합 학회 투빅스를 통해 저자들을 알게 되었고, R, Python 코딩과 인공지능에 관심을 갖게 되었다. 현재는 라인게임즈 데이터 사이언스팀에 재직 중이며, 게임 데이터 분석과 분석 파이프라인 구축을 진행하고 있다. 강화학습을 통한 게임 밸런스에 대해 관심이 많다.
펼치기
최영제 (지은이)    정보 더보기
국민대학교에서 빅데이터 경영통계를 전공하고, 현재 연세대학교 산업공학과에서 대학원 과정을 밟고 있다. 머신러닝, 딥러닝 전 분야에 관심을 갖고 있으며 현재는 automated feature extraction (AutoFE) 분야를 연구 중이다. 대학원에서는 주로 강화학습, 머신러닝 성능 향상을 위한 비정형 데이터 특징 추출 등의 프로젝트를 수행하고 있다. 빅데이터 연합 학회 투빅스를 통해 저자들을 알게 되었으며, 프로젝트 경험 등을 바탕으로 책을 집필하게 되었다.
펼치기

책속에서


















이 포스팅은 쿠팡 파트너스 활동의 일환으로,
이에 따른 일정액의 수수료를 제공받습니다.
이 포스팅은 제휴마케팅이 포함된 광고로 커미션을 지급 받습니다.
도서 DB 제공 : 알라딘 서점(www.aladin.co.kr)
최근 본 책
9791165920845