활성화 함수 (Activation Function)
- 입력 신호의 합을 출력 신호로 변환하는 함수
- 입력 받은 신호를 얼마나 출력할지 결정
- 비선형함수 (Nonlinear Function)
- 입력 신호의 총합이 활성화를 일으키는지 정하는 역할
활성화 함수 종류
- 계단 함수 (Step Function)
- 시그모이드 함수 (Sigmoid Function)
- 하이퍼볼릭탄젠트 함수 (Hyperbolic Tangent Function)
- 렐루 함수 (ReLU)
- 리키 렐루 함수 (Leaky ReLU)
- 소프트맥스 함수 (Softmax Function)
뉴런A > 뉴런B
- 뉴런A 에서 뉴런B 로 신호를 전달할 때, 임계점을 경계로 출력값에 큰 변화를 줌
입력 데이터 > 활성화 함수 > 출력 데이터
'Data Engineering > AI' 카테고리의 다른 글
[AI, ML, DL] 단층 퍼셉트론이 동작하는 방식 (0) | 2022.09.08 |
---|---|
[AI, ML, DL] 계단함수란? (0) | 2022.09.08 |
[AI, ML, DL] 인공신경망 가중치와 편향이란? (0) | 2022.09.08 |
[NLP] 코랩에 konlpy 설치 후 okt 사용해보기 (0) | 2021.08.25 |
[NLP] 코랩에 konlpy 설치 후 Komaran 사용해보기 (0) | 2021.08.25 |