일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 백준
- MATLAB
- 영상처리
- Algorithm
- Dreamhack
- Computer Architecture
- C++
- llm을 활용 단어장 앱 개발일지
- Image Processing
- Flutter
- bloc
- study book
- BOF
- Kaggle
- Widget
- MDP
- FastAPI
- pytorch
- BFS
- Got
- BAEKJOON
- rao
- ARM
- 파이토치 트랜스포머를 활용한 자연어 처리와 컴퓨터비전 심층학습
- fastapi를 사용한 파이썬 웹 개발
- Stream
- system hacking
- DART
- ML
- PCA
- Today
- Total
목록CNN (3)
Bull

import torchimport torch.nn as nnimport torch.nn.functional as Ffrom torchvision.models.utils import load_state_dict_from_url# Depthwise Separable Convolution 블록 정의class DepthwiseSeparableConv(nn.Module): def __init__(self, in_channels, out_channels, stride=1): super(DepthwiseSeparableConv, self).__init__() self.depthwise = nn.Conv2d(in_channels, in_channels, kernel_size=3, stri..

개요 ResNet(Residual Network)은 깊은 신경망의 학습을 용이하게 만들기 위해 개발된 아키텍처다. 이 모델은 2015년에 Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun에 의해 개발되었으며, "Deep Residual Learning for Image Recognition"이라는 논문을 통해 소개되었다. ResNet은 깊은 신경망이 가지는 주요 문제점 중 하나인 기울기 소실 문제를 해결하는 데 초점을 맞춘다. 핵심 개념 잔차 블록(Residual Blocks) ResNet의 핵심은 "잔차 블록"이라고 불리는 구조에 있다. 그림과 같이 잔차를 기준으로 다시 학습하고, 그것을 원본에 더한다고(스킵연결) 생각하면 된다. $H(x)=F(x)+x$를 만족하..

Flatten 층이란? Flatten 층은 다차원 입력을 1차원으로 평탄화하는 데 사용되는 신경망의 한 층이다. 이 층은 입력 데이터의 모든 차원을 하나의 긴 벡터로 변환한다. 이 과정은 주로 이미지 데이터와 같이 다차원 데이터를 다루는 컨볼루션 신경망(CNN)에서 특징을 추출한 후, 완전 연결 층(Fully Connected Layer)에 입력하기 전에 사용된다. Flatten 층을 사용함으로써, 모델이 다차원 데이터를 이해하고 처리한 뒤, 분류나 회귀 같은 다음 단계를 수행할 수 있도록 데이터를 적절한 형태로 변환한다. TensorFlow와 Keras를 사용한 Flatten 층 코드 예시 from tensorflow.keras.models import Sequential from tensorflow...