Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Got
- Dreamhack
- ML
- llm을 활용 단어장 앱 개발일지
- system hacking
- MATLAB
- bloc
- PCA
- BFS
- study book
- Flutter
- BAEKJOON
- fastapi를 사용한 파이썬 웹 개발
- FastAPI
- pytorch
- Image Processing
- C++
- MDP
- 파이토치 트랜스포머를 활용한 자연어 처리와 컴퓨터비전 심층학습
- Stream
- 영상처리
- rao
- DART
- BOF
- 백준
- Widget
- Kaggle
- Algorithm
- ARM
- Computer Architecture
Archives
- Today
- Total
목록MRP (1)
Bull

이 포스팅은 학교수업과 노승은 저자의 "바닥부터 배우는 강화 학습"을 바탕으로 정리했다. 학교 수업또한 저자 책을 바탕으로 수업을 받기 때문에 강의자료(요약에 가까운)와 책을 보며 정리했다. 개념 MDP는 마르코프 결정 프로세스의 약자로 의사결정 과정을 모델링하는 수학적인 틀을 제공한다. MDP의 Agent와 Reward를 통하여 마지막에 가장 큰 보상을 위한 상태를 찾아나선다. 우선 MDP를 알기위해 MP와 MRP에 대해 설명하겠다. MP (Markov Process) $$MP ≡ (S, P)$$ flow chart를 좀 형편없이 그린 감이 없지않아 있지만... 설명하자면 시작부터 도착까지 확률 P만 존재할 때 위의 그림과 같이 표현할 수 있다. 여기서 P를 전이확률이라고 하며, 이 전이확률을 행렬로 ..
Artificial Intelligence/Reinforcement Learning
2024. 3. 23. 16:42