일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- Algorithm
- fastapi를 사용한 파이썬 웹 개발
- DART
- PCA
- MDP
- bloc
- pytorch
- 파이토치 트랜스포머를 활용한 자연어 처리와 컴퓨터비전 심층학습
- 영상처리
- Widget
- ML
- Got
- BFS
- MATLAB
- C++
- BAEKJOON
- Computer Architecture
- Flutter
- FastAPI
- system hacking
- Image Processing
- llm을 활용 단어장 앱 개발일지
- 백준
- Kaggle
- ARM
- Stream
- Dreamhack
- rao
- BOF
- study book
- Today
- Total
목록All (309)
Bull
am 5:46어제 새벽에 음악소리를 크게 키고 헬스장에서 운동했다. 그 중 레그프레스 운동할 때 무게를 110kg 정도 올려놓고 했다. 헬스하고나니 피가 쏠려서 그런지 귀가 먹먹했다. 밤에 3시간 정도 자고 운동한거라 다시 졸려서 집에서 자고 점심에 일어났다. 그런데 귀가 먹먹한 게 그대로였다. 돌발성 난청? 그런 게 아닌 지 의심들어서 바로 이비인후과로 갔다. 간단하게 외관만 살핀 거라 이상은 없었다. 그래서 2일치 약먹고 다시 오라고 했다. 어제의 다음 날인 오늘, 조금 나은 줄 알았는데 어제 오른쪽 귀가 먹먹했다면 오늘은 왼쪽 귀가 우우웅거리는 이명이 들린다.최근 잠을 많이 안자고 커피랑 에너지 드링크를 많이 마시긴 했다. 그래서 그런건가? 싶기도 하다. 스트레스 요인도 있을 것이다. 멘탈이 강한건..

문제1019: 책 페이지N이 36이라면 1~36페이지까지 즉 1,2,3,...35,36에 나오는 모든 숫자를 다 세는 것이다.설명각 자리 수 마다 검사하여 모든 경우의 수를 구한다. 1234라는 N이 주어졌을 때 1,2,3,4 모두 검사하는 것이다.1의 자리 수를 검사할 때 1의 자리를 0~9까지 모두 바꿔보는 것이다. 그리고 일의 자리를 제외한 나머지 부분을 보는 것이다.주석을 보고 숫자 디버깅으로 이해하는 게 편할 것이니 포괄적인 설명은 포기한다. (포괄적으로 말하기가 어려워서)1204일 때 0104~1204 (0004는 불가, 다른 숫자 과정에서 겹침.)1214일 때 0014~12141224일 때 0024~12241234일 때 0034~1134 | 1230,1231,1232,1233,12341244..
am. 12:13생각보다 일지를 안쓴지 오래된 줄 몰랐다. 개강을 하고 나서 다시 학교 적응과 동시에 목표를 확고하게 세우고 공부에 집중하느라 생각이 없었다. 일단 공부 방법은 블로그에만 집중하려니 정확한 정보전달 능력과 글을 많이 써야하는 부담감에다가 개강으로 인해 바빠서 좀처럼 움직이지 못한 이유도 있다. 그래서 학교 공부는 노션을 지양하고 동시에 옵시디언도 같이 쓰는 편이다. md 형식이어서 약간 형태가 흐트러지질지언정 복붙하기 편하기 때문에, 그리고 많은 내용없이 요약형식으로 공부를 하기 때문에 학교 공부는 학교 공부 나름대로 정리하는 것이 시간절약도 되고 편하다. 블로그에도 되도록 내가 정리한 파일들을 조금 다듬어서 많이 올릴 예정이다. 손을 놓으면 안되니까. 확고한 목표가 생긴 부분에 대해서는..

2013년 구글에서 공개한 임베딩 모델로 단어 간의 유사성을 측정하기 위해 분포 가설(distributional hypothesis) 기반으로 개발됐다.분포 가설이란 같은 문맥에서 자주 나타나는 단어가 서로 유사한 의미를 가질 가능성이 높다는 가정이다.동시 발생(co-occurrence) 확률 분포를 이용하여 유사성 측정을 한다.예를 들어,"내일 자동차를 타고 부산에 간다""내일 비행기를 타고 부산에 간다"에서 자동차와 비행기는 서로 유사할 것이라고 예상한다.단어 벡터화희소 표현과 밀집 표현으로 나눌 수 있다.희소 표현 (sparse representation)소01000잃고10000외양간00010고친다00001- 벡터가 커지면 공간적 낭비가 심해진다. - 유사성 계산 또한 많은 비용이 발생한다...

Bow(Bag-ofWords)에 가중치를 부여하는 방식이다. Ilikethismoviedon'tfamousisThis movie is famous moive0012011I like this movie1111000I don't like this moive1111100단어 빈도 (Term Frequency)문서 내에서 특정 단어의 빈도 수를 나타냄.$$ TF(t,d) = count(t,d) $$위의 표에서 3개의 문서 중 4개의 movie가 나오면 $TF=4$ 가 된다.즉, t = 4(term 수), d = 3 (document 수)문서 빈도 (Document Frequency)한 단어가 얼마나 많은 문서에 나타나는지 의미.$$ DF(t,D) = count(t∈d:d∈D) $$반대로 생각하면 된다. 3개의 ..

FastText concept2015년 메타의 FAIR 연구소에서 개발한 오픈소스 임베딩 모델로 텍스트 분류 및 텍스트 마이닝 알고리즘이다. Word2Vec과 유사하지만 fastText는 단어의 하위 단어를 고려하여 더 높은 정확도와 성능을 제공한다. 하위 단어 고려를 위해 N-gram 을 사용해 단어를 분해하고 벡터화한다.(꺽새) 와 같은 특수 기호를 사용해 단어의 시작과 끝을 나타낸다.N-gram을 사용해 하위 단어 집합이 구성되는데,"서울특별시" 를 바이그램으로 분할 시 "서울", "울특", "특별", "별시" 가 된다.분해된 하위 단어 집합은 나눠지지 않은 자신 단어도 포함됨.만들어진 단어는 고유한 벡터값을 가짐.같은 하위 단어를 공유하는 단어 끼리는 정보 공유해 학습이 가능하다. 그래서 비슷한 ..

N-gram ConceptN개의 연속된 단어 시퀀스를 하나의 단위로 취급하여 특정 단어 시퀀스가 등장할 확률을 추정한다.N=1 일 때, 유니그램N=2 일 때, 바이그램N=3 일 때, 트라이그램이라고 부른다.$$ P(w_i | w_{t-1},w_{t-2}, ... w_{t-N+1}) $$N-1개의 토큰만을 고려해 확률을 계산한다. $w$ 는 어떤 단어 그룹이 나온 이후에 그 다음 단어가 나올 확률이다.CODE: N-gramimport nltkdef ngrams(sentence, n): words = sentence.split() ngrams = zip(*[words[i:] for i in range(n)]) return list(ngrams)sentence = "안녕하세요 만나서 진심으로 ..
남들과 다르면 가끔 내가 틀렸나 싶기도 해.(왠 유얼 디퍼런트, 섬타임즈 유필라잌어 미스테잌)
유디절빗 (유 디절브 잇)너 그럴 자격있어.
혼잣말이라도, 부정당하는 게 싫어서 절대로 얘기하지 않는 그럴 이야기들이 있다. 나의 인지와 동시에 정말 그렇게 되버릴 수 있기 때문이다. 어떻게 보면 고집이다. 좋은 말로는 끈기. 그래서 언제부터였고, 무엇을 생각하는지, 그것이 정말 나의 생각인지, 아니라고하면 어떤 게 남는지, 본래의 모습이 무엇인지, 의미가 있는 것인지. 과거와는 많이 다른 나를 보며 슬퍼할 이유도 회의할 이유도 후회할 이유도 의심할 이유도 없다. 과거로 인해 내가 지금 어떤 생각을 하는 것은 성찰이다. 성찰은 무조건적인 정답은 아니다. 5년전의 경험을 토대로 지금에 적용한다고 100% 옳게 흘러가는 방향이 아닐 수도 있다. 내가 지향하는 방향, 바라던 삶, 목적과 부합하지 않던 나의 모습의 변화에 이상함을 느낄 필요 없다.

NLP는 인간 언어의 구조, 의미 맥락을 분석하고 이해하는 알고리즘을 개발하기 위해서 다음과 같은 문제가 해결돼야 한다. 모호성: 단어와 구가 사용되는 맥락에 따라 여러 의미를 갖게 되어 모호한 경우가 많다. 이러한 모호성을 구분해야한다.가변성: 사투리, 강세, 신조어, 작문 스타일 등으로 매우 가변적이다. 이러한 문제도 해결해야한다.구조: 구문을 파악하여 의미를 해석해야한다. 알고리즘은 문장의 구조와 문법적 요소를 이해하며 의미를 추론하거나 분석할 수 있어야한다.Corpus(말뭉치)코퍼스란 자연어 모델을 훈련하고평가하는 데 사용되는 대규모의 자연어를 뜻한다.토큰화토큰은 개별 단어나 문장 부호와 같은 텍스트를 의미하며 말뭉치보다 더 작은 단위다. 개별 단어, 구두점 또는 기타 의미 단위일 수 있다. 토큰..

서론appBar와 BottomBar는 BottomNavigator 때문에 home_page 스크립트에서 관리되고 각 메뉴별 페이지를 렌더링하는 방식이다. 그래서 appBar에 편집 메뉴를 실행하면 tag_page의 method를 사용하고 싶었다.home_page에 HomePage 클래스에 메소드를 선언하고 callBack으로 전달해주어도 되지만 그렇게하면 구조적으로 역할이 모호해지는 게 싫었다.그래서 TagPage에 method를 선언하고 HomePage의 appBar에서 메소드를 호출할 수 있도록 하고 싶었다. 즉 부모 위젯이 자식위젯의 메소드를 사용하게끔 유도해주는 것이다.방법방법은 다음과 같다.1. 글로벌 키 생성// home_page.dartfinal GlobalKey _tagPageKey = G..