일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- rao
- BOF
- system hacking
- study book
- Got
- Stream
- BFS
- Flutter
- bloc
- ML
- pytorch
- llm을 활용 단어장 앱 개발일지
- Algorithm
- Widget
- C++
- 파이토치 트랜스포머를 활용한 자연어 처리와 컴퓨터비전 심층학습
- Image Processing
- Computer Architecture
- fastapi를 사용한 파이썬 웹 개발
- Kaggle
- MDP
- DART
- MATLAB
- 백준
- 영상처리
- Dreamhack
- PCA
- ARM
- FastAPI
- BAEKJOON
- Today
- Total
목록Artificial Intelligence/Deep Learning (17)
Bull

RNN(Recurrent Neural Network)은 시퀀스 데이터를 처리하기 위해 설계된 인공 신경망의 한 유형이다.RNN은 텍스트, 시간 시계열 데이터, 오디오 신호 등 순차적인 데이터에 유용하다. 처음 사진만 보고 이해가 안갈 수도 있다. 나도 혼자 책으로 처음 접할 때 output이 여러 개인 것에 대해 이해를 못했다.하지만 최근 학교 수업에서 간략하게 코드를 통해 수업을 했는데 예제를 보고 어떤 느낌인 지 확 와닿았다. 이렇게 이해하면 쉽다. [0,1,2 → 3], [1,2,3 → 4], [2,3,4 → 5] ... [1111,1112,1113 → 1114]를 학습시킨 후,[53783,53784,53785 → ???] 에 대한 y값을 예측하는 것이다. 위의 예제에서 입력값은 3개지만, 더 늘릴..

그냥 갑자기 할짓없이 딥러닝 관련 책보다가 계속 소프트맥스 적용시키는 거 보고 생각나서 써봤다.......... ...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ......

개요 ResNet(Residual Network)은 깊은 신경망의 학습을 용이하게 만들기 위해 개발된 아키텍처다. 이 모델은 2015년에 Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun에 의해 개발되었으며, "Deep Residual Learning for Image Recognition"이라는 논문을 통해 소개되었다. ResNet은 깊은 신경망이 가지는 주요 문제점 중 하나인 기울기 소실 문제를 해결하는 데 초점을 맞춘다. 핵심 개념 잔차 블록(Residual Blocks) ResNet의 핵심은 "잔차 블록"이라고 불리는 구조에 있다. 그림과 같이 잔차를 기준으로 다시 학습하고, 그것을 원본에 더한다고(스킵연결) 생각하면 된다. $H(x)=F(x)+x$를 만족하..

궁금해진 이유 학부 공부중, 딥러닝과 강화학습을 동시에 배우고 있는데 수식중에 bias과 reward는 은닉층에서의 수식에 더하는 개념으로 등장하는데 생김새가 비슷해서 같은 개념인지 헷갈려서 정리한다. 순전파의 Bias(편향) 딥러닝에서 신경망의 각 뉴런은 입력 데이터에 가중치를 곱한 후, 이 결과에 bias를 더하여 최종 출력을 결정한다. Bias는 신경망이 입력 데이터가 없거나 입력에 대한 가중치의 합이 0일 때도 활성화될 수 있게 하는 역할을 한다. 이를 통해 모델의 유연성과 표현력이 향상된다. 순전파는 입력 데이터가 신경망을 통해 전달되어 출력까지 이르는 과정을 말하며, 이 과정에서의 bias는 데이터가 가진 기본적인 편향을 모델에 반영하는 역할을 한다. 강화학습의 MDP의 Reward(보상) 강..

Flatten 층이란? Flatten 층은 다차원 입력을 1차원으로 평탄화하는 데 사용되는 신경망의 한 층이다. 이 층은 입력 데이터의 모든 차원을 하나의 긴 벡터로 변환한다. 이 과정은 주로 이미지 데이터와 같이 다차원 데이터를 다루는 컨볼루션 신경망(CNN)에서 특징을 추출한 후, 완전 연결 층(Fully Connected Layer)에 입력하기 전에 사용된다. Flatten 층을 사용함으로써, 모델이 다차원 데이터를 이해하고 처리한 뒤, 분류나 회귀 같은 다음 단계를 수행할 수 있도록 데이터를 적절한 형태로 변환한다. TensorFlow와 Keras를 사용한 Flatten 층 코드 예시 from tensorflow.keras.models import Sequential from tensorflow...