* DNN (Deep Neural Network; 심층신경망)
- 2개 이상의 Layer 를 가진 ANN (Artifical Neural Network) 의 일종
- 각 Layer 는 Neuron 이라고 불리는 단위로 구성되며 Weight 와 Bias 라는 매개변수를 통해 데이터를 처리함
* DNN 종류
- CNN
- RNN (LSTM, GRU)
- MCP
- Transformer (BERT ,GPT)
* Input Layer (입력 층)
- 데이터를 받아들이는 층
* Hidden Layer (은닉 층)
- 입력 데이터로부터 특징을 추출하고, 학습을 통해 패턴을 파악
- 여러 개의 Layer 가 존재하며 이전 Layer 의 Output 을 받아 다음 Layer 에 Input 으로 전달
* Output Layer (출력 층)
- 최종 예측 결과를 출력하는 층
- 분류 문제의 경우 확률로 표현, 회귀 문제에서는 연속적인 값으로 나타낼 수 있음
- 활성화 함수는 문제 유형에 따라 다르게 사용됨
: 회귀 - 사용하지 않음
: 이진 분류 - Sigmoid 함수
: Multi Classification : Softmax 함수
* Fully Connected Layer (= Dense Layer; 완전 연결 층)
- 신경망의 각 뉴런이 이전 레이어의 모든 뉴런과 완전 연결되어 있는 층
* Forward Propagation (순전파)
- 인공 신경망에서 입력 데이터를 받아 출력 결과를 계산하는 과정
- 입력 데이터에 대해 Weight 를 곱하고 Bias 를 합하여 (선형 결합), 비선형 Activation Function 에 전달
* Weight (가중치)
- 각 입력 데이터의 중요도(영향력)을 의미
- 학습 과정에서 값이 조정된다
* Bias (편향)
- 가중합된 입력 데이터의 위치를 조정
- 학습 과정에서 값이 조정된다
* Activation Function (활성화 함수)
* Backward Propagation (역전파)
- Forward Propagation 에서 계산된 Loss 를 역으로 전파하여 각 Weight 가 Loss 에 기여한 정도를 계산
- Weight 를 조정하여 Loss 를 줄이는 방향으로 학습 진행 (경사하강법)
- 기울기 계산을 위해 Chain Rule 사용
: 각 층의 출력에 대해 연쇄적으로 미분(합성 함수의 미분)을 계산
- Learning Rate 는 매 업데이트마다 계산된 미분 값을 각 파라미터(W, B)에 얼마나 반영할지 조절
: 너무 크면 최적화가 불안정해지고, 너무 작으면 학습이 느려질 수 있음
* Optimizer
- 신경망 학습 과정에서 모델의 파라미터(W, B 등)를 업데이트하는 도구
: Loss Function 의 출력 값을 최소화하기 위해 경사 하강법 등의 알고리즘을 사용하여 파라미터를 조정
: Learning Rate(학습률)을 기반으로 파라미터를 얼마나 빠르게 업데이트 할지 경정
: Momentum(모멘텀), Weight Decay (가중치 감쇠), 학습률 스케줄링 등의 기법 지원
* Iteration (반복 학습)
- 데이터를 점진적으로 학습하는 과정
* Epoch (에폭)
- Training 데이터셋 전체를 모델에 한 번 모두 통과시켜 파라미터(W, B)를 업데이트 하는 과정
- Epoch 가 진행될수록 손실이 감소하고 모델의 성능 향상
- 너무 과하면 과대적합이 발생할 수 있음.
* Batch Normalization (BatchNorm; 배치 정규화)
- 딥러닝 모델의 훈련을 안정화하고 가속화하기 위해 사용되는 기법
- 각 Mini-batch 내에서 신경망의 출력 값을 정규화하여, 신경망의 각 층이 적절한 분포의 입력을 받을 수 있도록 함
- 장점
: 기울기 소실 문제를 완화
: 학습 속도를 향상
: 일반화 성능을 개선
* Internal Covariate Shift (내부 공변량 변화)
- 딥러닝 모델에서 각 레이어의 입력 분포는 학습 과정 동안 변화할 수 있음
- 내부 공변량 변화가 심할수록 학습이 불안정해지고 느려질 수 있음
'SW > AI (인공지능)' 카테고리의 다른 글
Activation Function (활성화 함수) (0) | 2025.06.21 |
---|---|
Loss Function (손실 함수) (0) | 2025.06.21 |
ML Model 학습 (0) | 2025.06.21 |
Generative AI (생성형 AI) (0) | 2025.06.16 |
PyTorch (파이토치) (0) | 2025.06.16 |