Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
Tags
- pytorch
- llm을 활용 단어장 앱 개발일지
- MATLAB
- Dreamhack
- ARM
- DART
- Computer Architecture
- fastapi를 사용한 파이썬 웹 개발
- Image Processing
- Kaggle
- rao
- C++
- BOF
- 파이토치 트랜스포머를 활용한 자연어 처리와 컴퓨터비전 심층학습
- BAEKJOON
- 영상처리
- Flutter
- Algorithm
- Widget
- Got
- ML
- MDP
- PCA
- Stream
- study book
- 백준
- bloc
- system hacking
- FastAPI
- BFS
Archives
- Today
- Total
목록embedding (1)
Bull
Word2Vec 모델Word2Vec는 자연어 처리에서 단어를 벡터로 표현하기 도구입니다. 벡터를 처음 마주한다면 어떤 뜻인지 궁금할 수 있을텐데요. 쉽게 생각하면 배열을 상상하면 됩니다. 벡터의 본래 개념은 방향과 크기를 가진 물리량입니다. 만약 2차원 좌표공간에서 우리는 1,2를 x=1, y=2이라는 좌표를 떠올릴 수 있습니다. 이를 2차원이 아닌 n차원에서 벡터를 표현하게 된다면 [X1, X2, X3, ..., Xn]으로 벡터 물리량을 표현할 수 있습니다. 우리는 단어 혹은 말뭉치(코퍼스)를 n개 라 할 때 단어를 차원으로 표현할 것입니다. 예를 들어, "fat cat on the mat"인 단어는 5차원 벡터로 ["fat", "cat", "on", the", "mat"]로 표현할 수 있겠네요. 즉,..
Artificial Intelligence/NLP
2024. 7. 21. 21:26
