배치 정규화Batch Normalization배치 정규화는 신경망의 각 층에서 입력 데이터를 정규화하는 기법이에요. 이를 통해 학습 속도를 높이고, 과적합을 줄이는 데 도움을 줘요. 또한, 활성화 함수의 비선형성을 개선해 성능을 향상시켜요.
LoRALow-Rank Adaptation of Large Language Models대규모 언어 모델의 파라미터 수를 줄이면서 효율적인 학습을 가능하게 하는 기법이에요. 이 기술은 모델의 저차원 표현을 사용해 연산량을 감소시키고, 학습 속도를 높여줘요. 결과적으로 자원 소모를 줄이면서도 성능을 유지할 수 있어요.