활성화 함수 Logo

Activation Function

활성화 함수
신경망에서 출력값의 비선형성을 결정해주는 함수에요. 이 함수를 통해 모델이 복잡한 패턴을 학습할 수 있게 돼요. 다양한 종류가 존재하며, ReLU, Sigmoid, Tanh 등이 대표적이에요.
활성화 함수 스킬 여정을 시작하세요
0개의 레벨을 통해 체계적으로 학습하고, 커리어 성장의 기반을 다지세요.
0 레벨 로드맵
단계별 역량 인증

학습 로드맵

0개 레벨
준비중이에요. 조금만 기다려주세요!

하위주제 (3)

Hyperbolic Tangent
하이퍼볼릭 탄젠트는 비선형 함수로, 입력 값을 -1에서 1 사이로 변환해요. 주로 신경망에서 사용되며, 출력이 중심이 0으로 형성되어 학습이 용이해요. 그러나 기울기 소실 문제에 더 취약할 수 있어요.
Rectified Linear Unit
ReLU는 음수 값을 0으로 변환하고, 양수 값은 그대로 유지해요. 이 함수는 계산이 간단하고, 학습 속도를 높여주는 장점이 있어요. 하지만, 일부 뉴런이 항상 비활성화되는 '죽은 ReLU' 문제도 발생할 수 있어요.
비선형 변환을 제공해요. 출력값은 0과 1 사이로 제한되어요. 주로 이진 분류 문제에 사용돼요.

이 스킬로 지원할 수 있는 채용공고

Treeup Icon
treeup

이력서 하나로 수십 개 채용공고에 지원하세요. AI 기반 이력서 최적화로 서류 합격률을 높여드립니다.

뉴스레터 구독
커리어 성장에 도움되는 정보를 받아보세요

오경 | 사업자등록번호: 437-14-02930 | 대표자: 김경오 | 통신판매업: 2025-서울강남-02707 [사업자정보확인]

전화: 070-4571-9162 | 이메일: support@treeup.io

주소: 서울특별시 강남구 테헤란로 128, 3층 153호 (역삼동, 성곡빌딩)

© 2026 Treeup. All rights reserved.