신경망에서 출력값의 비선형성을 결정해주는 함수에요. 이 함수를 통해 모델이 복잡한 패턴을 학습할 수 있게 돼요. 다양한 종류가 존재하며, ReLU, Sigmoid, Tanh 등이 대표적이에요.
인공 신경망에서 오차를 줄이기 위해 가중치를 조정하는 과정이에요. 입력값에서 출력값까지의 경로를 따라 변화율을 계산해요. 이 정보를 바탕으로 가중치를 업데이트하여 성능을 향상시켜요.
모델의 예측값과 실제값 간의 차이를 측정해요. 이 값을 최소화하는 것이 모델 학습의 목표에요. 다양한 종류의 손실 함수가 활용돼요.
인공 신경망의 한 형태로, 데이터에서 패턴을 학습하는 기능이 있어요. 여러 층으로 구성되어 복잡한 관계를 모델링할 수 있어요. 주로 이미지, 음성, 자연어 처리 분야에서 활용되고 있어요.
Sequence-to-sequence Learning
입력 시퀀스를 고정된 크기의 벡터로 변환한 후, 이를 기반으로 출력 시퀀스를 생성하는 방식이에요. 이 과정은 주로 자연어 처리나 기계 번역에 사용되며, 인코더와 디코더로 구성돼요. 모델은 훈련을 통해 입력과 출력 간의 관계를 학습하게 되죠.