본문 바로가기

전체 글112

0. 옵시디언 (Obsidian) 마이그레이션 오늘은 옵시디언이라는 워크스페이스에 대해서 간단하게 알아보고, 노션에서 마이그레이션하는 방법에 대해 알아보겠습니다. ㅎㅎ 사실 많은 고민을 했습니다. 굳이 노션을 잘 사용하고 있는데, 옵시디언으로 갈아타야 하나..? 라는 생각이 들 때, 다음과 같은 내용이 저를 확 끌어당긴 것 같아요. 바로 옵시디언의 꽃인 그래프 뷰(Graph View)인데요. 저 같은 경우에는 노션에 방대한 양의 페이지가 쌓이면서 나름 hierarchy하게 구조를 가져간다고 생각했지만, 실제로는 해당 페이지의 depth까지 타고 들어가야 파악할 수 있다는 단점이 있었어요. 그래서 처음엔 대충 사람들이 하라는대로 마이그레이션 하면 되겠지~ 라는 안일한 마인드로 하다가 여러 삽질 끝에 성공적으로 마이그레이션한 케이스를 공유하고자 합니다... 2023. 10. 13.
2023-06-30 회고록 안녕하세요. 저번에는 우울한 내용으로 회고록을 가져왔다면, 이번에는 다소 긍정적인 내용으로 소식을 전하고자 합니다. 앞서, A 스타트업으로부터 경영 악화로 인해 해고당하며, 밀린 월급에 대한 처리를 하고, 이직을 위해 이력서를 다시 작성하고, 여러 기업에 지원서를 내미는 상황이었습니다. 처음에는 아는 형과 호기롭게 규모가 큰 기업에 이력서들을 내밀었습니다. 저는 데이터 사이언티스트로써 모델을 연구하고, 형은 A 스타트업에서 MLOps 포지션으로 모델을 배포해주기에 같은 회사에 입사하면 서로 좋은 시너지가 날 것이라 생각해서 같이 지원을 했습니다. 하지만, 보기 좋게 대기업들에서는 서류 광탈 메일만 날라오고 저희는 점점 말수가 적어져갔습니다. 결국 같이 지원하기 시작한지 2주쯤 되자 각자도생으로 서로 언젠.. 2023. 6. 30.
# 0. 비선형성 (Nonlinearity) P.S. 안녕하세요. 해당 딥러닝 카테고리는 이직을 위해 기술면접을 보던 도중 딥러닝의 기본 요소들에 대해 구체적으로 말할 수 있을 정도가 아니라고 생각이 들어서 다시한번 복습하기 위해 만들었습니다. 딥러닝에 대한 배경지식이 있다는 가정하에 정리를 할 예정입니다. 비선형성을 딥러닝 사용하는 직관적인 이유딥러닝 모델에 비선형성을 부여하는 것은 매우 당연한 일이다.어떻게 보면 비선형 함수를 누적해서 부여하는 행위 자체가 딥러닝이기도 하다.선형 변환(Linear Transfomation)의 개념을 안다면, 단순 직교 좌표계 변환만으로는 복잡한 고차원적인 문제를 해결할 수 없다는걸 알 수 있다.그래서, 비선형 변환을 통해 직교 좌표계 공간을 곡선의 형태로 변환하여 보다 복잡한 문제를 해결하기 위함이다. 위 그림.. 2023. 6. 14.
# 1. 베이지안 이론 (Bayesian Theory) 빈도 확률 (Frequentist Probability) VS 베이지안 확률 (Bayesian Probability) 빈도 확률 (Frequentist Probability) 동전의 앞면이 나올 확률은 몇일지 궁금하다고 가정한다. 10번을 던져서 4번이 앞면이 나온경우 0.4의 확률을 가지고 더 높은 신뢰도를 위해 100번을 던져서 45번이 앞면이 나온 경우 0.45로 생각할 수 있다. 이러한 수행을 반복하여 빈도(Frequency)를 측정하여 빈도 확률을 계산할 수 있다. 베이지안 확률 (Bayesian Probability) 하지만, 현실에서는 동전을 던지는 것만큼 간단하게 수행할 수 없는 현상들이 존재한다. 이렇게 일어나지 않은 사건에 대한 확률을 추정하는 것이 베이지안 확률이다. 베이즈 정리 (B.. 2023. 6. 9.
# 0. 기초통계 - 확률, 우도, 조건부확률 P.S. 해당 블로그에서 다룰 통계 개념은 딥러닝을 쉽게 이해기 위한 개념들을 중심으로 정리하려고 합니다. 생성(Generative) 분야는 특정 확률 분포 공간에서 가장 그럴듯한 데이터를 샘플링하기 때문에 확률과 통계 개념이 중요합니다. 물론 꼭 생성 분야가 아니더라도 다양한 도메인에서 적용될 수 있습니다. 모수 (Parameter) 모수란 특정 확률 분포에 대한 특성값을 의미한다. 위와 같은 4개의 확률 분포는 동일한 정규 분포의 형태를 띄더라도, 서로 다른 모수(평균 $\mu$와 분산 $\sigma^2$)에 따라 다른 형태를 띄고 있음을 알 수 있다. 일반적으로 모집단을 전수조사할 수 없기 때문에 우리는 표본 추출(Sampling)을 통해 표본 집단에 대한 모수로 모집단의 모수를 추정한다. 확률 (.. 2023. 6. 9.
# 4. Attention Is All You Need P.S. 대생성의 시대에서 Diffusion이나 GPT류들이 판치고 있는 시대에.. 이제서야 이 논문을 다루게 되네요.. ㅋ.ㅋ.ㅋ 많이 늦은 감이 없지않아 있지만, 복습할 겸 2018년 구글에서 발표한 Transformer에 대해 최대한 쉽게 정리해보려 합니다. 그래도 기본적인 RNN과 CNN에 대해서 공부하시고 오셔야 아래 내용을 이해할 수 있습니다! Abstract 기존의 모델은 encoder와 decoder 구조로 되어 있으며, 해당 구조들은 RNN 혹은 CNN으로 구성되어 있다. 그리고, Attention 매커니즘을 적용하여 이들의 성능을 좀더 끌어올렸다. 본 논문에는 RNN과 CNN을 배제한 온전히 Attention 매커니즘으로만 구성되어 있는 새로운 아키텍처 Transformer를 제안하고자.. 2023. 6. 7.