활성화함수를 처음 대하는 사람은 감이 잘 오지 않습니다.
영어로는 액티베이트(activate) 한다... (출처: 밑바닥부터 시작하는 딥러닝)
앞에서 설명한 퍼셉트론을 참고해 보면
입력층에 입력값과 가중치를 곱한 것들의 합을 구하면,
이것이 출력치가 되는데,
이 합계가 어떤 특정값(θ)보다 작으면 0 이 되고,
이 합계가 어떤 특정값(θ)보다 크면 1 이 되어 활성화(activate) 됩니다.
여기서 확장하면 b = -θ 라고 하면 다음과 같은 식이 됩니다.
자세히 보면 맞는 내용이긴 하지만 그냥 넘어 가지 마시고, 곰곰히 생각해 보세요 ^^^
이제 이 식을 다시 변형해 봅니다.
일단 위 식의 y를 h(x) 로 지정하면 다음과 같은 식이 됩니다.
먼저 h(x)를 살펴 봅시다.
h 함수는 입력변수 x와 가중치를 이용하여 출력 y를 만드는 기능입니다.
한편으로 h(x) 는 0 보다 작으면 0, 0 보다 크면 1을 만듭니다.
그럼 이제 활성화함수로 넘어갑니다.
위의 식을 간단하게 표현하면 다음과 같이 됩니다.
이를 다음과 같이 표현할 수 있습니다. 다음 그림이 핵심입니다. ^^^
입력으로 들어오는 것들의 가중합이 바로 a 가 되고
이 입력값을 h( ) 함수로 어쩌구 저쩌구 하여 출력값 y를 내 보내는 구나.
그럼 h( )가 뭐냐? 이것이 바로 활성화함수입니다.
이 활성화함수에는 어떤 것이 있을까?
(1) 시그모이드(sigmoid) 함수 => 이것은 로지스틱회귀분석에서 다룬 함수입니다.
(2) 계단함수(step funciton)
(3) ReLU( 렐루 렐루 렐루 하는) 함수 Rectified Linear Unit 등이 있습니다.
'Python' 카테고리의 다른 글
4일째 4.2 odds, logit, 시그모이드함수, 소프트맥스 (0) | 2020.08.18 |
---|---|
4일째 4.1 각 층의 신호 전달 구현 & 델타 규칙 (0) | 2020.08.18 |
2일째 2.2 그림그리기 -matplotlib (0) | 2020.08.13 |
제2강 2.1 넘파이 사용 - import, np.array( ) (0) | 2020.08.13 |