K1A2 blog
취소

[자료구조] 세그먼트 트리(Segmenmt Tree)

개요 백준애 19277 - ADD, DIV, MAX 문제를 풀고 신선한 충격을 받아 풀이를 정리해보려고 합니다. 해당 문제는 세그먼트 트리 비츠 라는 자료구조가 사용되었는데, 이 알고리즘을 이해하려면 세그먼트 트리, 레이지 세그먼트 트리의 이해가 선행되어야 합니다. 그래서 오늘을 세그먼트 트리에 대해서 정리헤 보겠습니다. 세그먼트 트리? 세그...

[ML] 레이어 정규화(Layer Normalization)

개요 레이어 정규화(Layer Normalization, LN)은 배치 정규화(Batch Normalization, BN)과 비슷하게 신경망 내부에서 정규화를 진행하는 방법입니다. 요즘 많이 연구되는 텍스트 생성과 같은 테스크에 주로 사용되는 Transformer, RNN과 같은 시퀀스 모델에는 BN이 적용이 어려워 Layer Normalizati...

[ML] 배치 정규화(Batch Normalization)

개요 배치 정규화(Batch Normalization)은 2015년에 공개된 Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift 논문에서 제안된 개념입니다. 배치 정규화는 학습 속도 개선, 오버피팅 억제 등 여러 장점이 있어 현재 대부...

[ML] 활성화 함수(Activation Function)

개요 활성화 함수(Activation Function)는 신경망에서 뉴런이 입력을 받아 출력으로 보낼 때 적용하는 비선형 함수입니다. 활성화 함수를 적용하여 비선형성을 주어 복잡한 문제를 학습할 수 있도록 합니다. 활성화 함수 종류 활성화 함수는 목적, 데이터 특성에 따라 다양한 함수를 사용합니다. Sigmoid [\sigma(x) = \f...

[ML] 역전파(Back Propagation)

개요 딥러닝은 순전파(Forward Propagation)과 역전파(Back Propagation) 두 단계로 진행됩니다. 순전파는 입력 -> 신경망 -> 출력 순으로 계산해서 예측 값을 산출해내는 과정이고, 역전파는 출력 값으로 오차를 계산해서 신경망을 거슬러 올라가며 파라미터를 업데이트 하는 과정입니다. 각 과정에 대해 자세히 알아...

[ML] Optimizer

Optimizer? 딥러닝은 오차함수(Loss Function)을 이용해 목표와 예측값의 차이를 계산하고, 최적화 알고리즘을 이용해 모델의 파라미터값을 수정해가며 학습을 진행합니다. 이때 여러 최적화 알고리즘을 Optimizer라고 합니다. 옵티마이저 종류 옵티마이저는 여러 종류가 있습니다. 오차값을 이용해 어떤 방식으로 파라미터를 업데이트 ...

[ML] ResNet 정리

ResNet 논문을 읽고 정리하기 위해 작성하는 글 입니다. 논문 원본은 여기서 확인 가능합니다. ResNet? ResNet은 점점더 깊어질수록 학습하기 어려워지는 문제가 있습니다. 주요 원인으로는 깊이가 깊어짐에 따라 생기는 기울기 소실/폭주(gradient vanishing/exploding) 문제 입니다. 해당 문제들은 nomalized...

[ML] 오차함수

오차함수? 오차함수(loss function)은 컴퓨터가 예측한 선이 얼마나 데이터를 잘 표현하는지 판단할때 사용하는 수식입니다. 데이터를 잘 표현했다면 오차가 작고, 그렇지 못하다면 오차가 크죠. 딥러닝에서는 오차값을 이용해 오차역전파(back propagation) 과정을 거쳐 모델의 가중치와 편향을 더 잘 예측할 수 있도록 업데이트 할때...

[ML] 딥러닝

간단하게 머신러닝(딥러닝)에 대해 정리해보는 글 입니다. 딥러닝에 대해 간단한 원리와 용어 정리같은 느낌의 글이라서 자세한 내용은 추후에 각각 추가적인 포스팅으로 하나하나 자세히 다뤄볼 예정입니다. 머신러닝? 딥러닝? 인터넷에 관련 정보를 찾아보다보면 많은 사람들이 인공지능, 머신러닝, 딥러닝을 혼용해서 사용합니다. 하지만 각 단어는 모두 뜻이...

[선형대수] 선형독립

선형독립, 선형종속 집합 \(S = \left\{ v_1, v_2, \cdots v_r \right\}\)이 벡터공간 \(V\)의 두개 이상의 벡터 집합이고, \(S\)의 어떤 벡터도 다른 벡터드의 선형결합으로 표현이 불가능하면 선형독립집합(linearly independent set)이라고 하고, 아니라면 선형종속집합(linearly depende...