소프트맥스2 (R3)제09강_02 소프트맥스(softmax) 소프트맥스는 분류에 사용됩니다. $\\ $\begin{align*} y_k &= \frac {exp(a_k)} { \sum\limits_{i=1}^n exp{(a_i)} } \\ \end{align*} exp(x)는 $e^x$를 뜻하는 지수함수 입니다. 소프트맥스 함수의 분자는 $a_k$의 지수함수, 분모는 지수함수의 합으로 구성됩니다. 지수함수는 크기가 크므로 다음과 같이 조정하여 해결합니다. $\begin{align*} y_k &= \frac {exp(a_k)} { \sum\limits_{i=1}^n exp{(a_i)} } \\ &= \frac {C \cdot exp(a_k)} { C \cdot \sum\limits_{i=1}^n exp{(a_i)} } \\ &= \frac { exp(a_k+logC.. 2021. 5. 21. 4일째 4.2 odds, logit, 시그모이드함수, 소프트맥스 소프트맥스 정리하기 이제 딥러닝 4일째 들어섭니다. 다층신경망, 심층신경망 그리고 가중치 문제 등 을 익힙니다. 그러다가 보면 출력층에 값들이 생성됩니다. 그런데 분류문제라고 하면 이들 출력층의 값들을 확률값으로 변환하면 편리합니다. 그러기에 앞서 몇 가지 용어를 정리해 봅니다. 중간단계에 사용되는 활성화함수 중 시그모이드 함수 등을 적용하게 되는데 시그모이드 시그모이드 하는데 시그모이드가 뭐지? 우선 시그모이드를 살펴 봅니다. sigmoid의 뜻은 " shaped like the letter S:" "S랑 비슷한" 뜻이구나. 이와 관련하여 여러가지 용어가 나오는데 하나하나 살펴 보겠습니다. 오즈,odds 성공할 확률이 실패할 확률보다 몇 배인가?를 나타내는 비율 p/(1-p) 비가 올 확률이 75% 이.. 2020. 8. 18. 이전 1 다음