주제 | 강의주요내용 | 시간 |
---|---|---|
[Phase01] 강의소개 |
1. 강의 진행 및 강사 소개
2. Pygame 소개 3. Pygame - 강화학습 테스트 환경 설명 4. Pygame 예시 코드 실습 5. Unity 소개 6. Unity ML-Agent 및 테스트 환경 설명 7. Unity ML-Agent 예시 코드 실습 |
3H |
[Phase02] 딥러닝과 강화학습의 기초 |
1. 강화학습이란?
2. Deep Q Network 3. 간단한 딥러닝 이론 1) Neural Network 2) Convolutional Neural Network 3) Recurrent Neural Network 4. 강화학습의 용어들 5. Bellman Equation과 Q-function |
3H |
[Phase03] SARSA와 Q-learning |
- SARSA
1. Grid World 소개 2. SARSA 이론 설명 3. SARSA 업데이트 과정 살펴보기 4. SARSA 코드 설명 및 실습 - Q-learning 1. Q-learning 이론 설명 2. Q-learning 업데이트 과정 살펴보기 3. Q-learning 코드 설명 및 실습 |
3H |
[Phase04] Deep Q-Network |
1. Q-learning의 한계
2. Deep Q network의 개선점 3. Deep Q Network 이론 4. Deep Q Network 업데이트 5. Deep Q Network의 주요 기법들 1) Experience Replay 2) Target Network 3) Frame Skipping and Stacking 6. Deep Q Network 코드 설명 및 실습 |
3H |
[Phase05] Double DQN과 Prioritized Experience Replay |
1. DQN의 overoptimistic value estimation 문제
2. Double DQN의 개요 3. Double DQN의 이론 4. Double DQN 코드 설명 및 실습 5. Prioritized Experience Replay와 기존 Experience Replay 비교 6. Prioritized Experience Replay의 이론 설명 7. Prioritized Experience Replay 코드 설명 및 실습 |
3H |
[Phase06] Dueling DQN과 NoisyNet DQN |
1. Dueling DQN의 이론
2. Dueling DQN의 코드 설명 및 실습 3. Epsilon greedy 기반 expolration과 parametric noise 기반 exploration 비교 4. NoisyNet의 이론 설명 5. NoisyNet 코드 설명 및 실습 |
3H |
[Phase07] DPQN과 앞으로의 강화학습 |
1. RNN과 LSTM
2. RNN을 통한 MNIST 실습 3. DRQN의 이론 및 네트워크 구조 설명 4. DRQN 코스 설명 및 실습 5. Deep Reinforcement Learning의 현재 상황과 발전 방향 |
3H |