Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 파이썬과 케라스로 배우는 강화학습
- MB
- 강화학습
- 벨만 방정식
- Richard Socher
- 양성평등
- ai
- 자연어처리
- 폴댄스
- 딥러닝
- 독서
- 리처드소처
- Linear Regression
- NLP
- 딥뉴럴넷
- kbpf
- model free
- cost function
- CS224N
- MDP
- 다이내믹 프로그래밍
- 머신러닝
- tensorflow
- 행복
- 인공지능
- 취미
- Gradient descent
- 페미니즘
- 애쉬브라운
- 파이썬
Archives
- Today
- Total
목록근사함수 (1)
Ordinary day
(파이썬과 케라스로 배우는 강화학습을 읽고 요약정리 한 것입니다.) 1. 근사함수 Function Approximation앞에서 봤던 문제들은 간단한 문제였지만 대부분은 상태가 다양하고 환경이 변한다.그럼 이런 경우엔 에이전트는 강화학습을 통해 어떻게 학습할까? 이전에 봤던 다이내믹 프로그래밍은계산 복잡도: 상태 공간의 크기가 커지는 경우차원의 저주: 상태의 차원이 늘어나는 경우환경에 대한 완벽한 정보 필요: 보상, 상태변환확률(모델)을 정확히 알아야 함이런 한계가 존재했었고, 몬테카를로, 살사, 큐러닝으로 3번의 문제를 해결할 수 있었다.(몬테카를로, 살사, 큐러닝은 model-free로, 샘플링을 통해 학습)그렇다면 1과 2는 어떻게 해결해야 할까? 기존의 강화학습 알고리즘에서는 각 상태에 대한 정보..
Study/ML 이론
2017. 10. 19. 01:41