머신러닝/10. 딥러닝3 (R3)제09강_02 소프트맥스(softmax) 소프트맥스는 분류에 사용됩니다. $\\ $\begin{align*} y_k &= \frac {exp(a_k)} { \sum\limits_{i=1}^n exp{(a_i)} } \\ \end{align*} exp(x)는 $e^x$를 뜻하는 지수함수 입니다. 소프트맥스 함수의 분자는 $a_k$의 지수함수, 분모는 지수함수의 합으로 구성됩니다. 지수함수는 크기가 크므로 다음과 같이 조정하여 해결합니다. $\begin{align*} y_k &= \frac {exp(a_k)} { \sum\limits_{i=1}^n exp{(a_i)} } \\ &= \frac {C \cdot exp(a_k)} { C \cdot \sum\limits_{i=1}^n exp{(a_i)} } \\ &= \frac { exp(a_k+logC.. 2021. 5. 21. (R3)제09강(3.1)신경망 표기** wij 주의 - 출력 i 로 들어가는 입력 j 신경망 공부를 하게 되면 여러가지 표기법을 접하게 됩니다. 다음은 간단한 신경망을 표시한 것입니다. (1) 우선 입력 a, b,c 로 입력 변수가 3개 있습니다. (2) 입력된 a,b,c 에 가중치가 적용됩니다. Wa, Wb, Wc (3) 입력된 값의 (가중) 합계를 구합니다. Σ 입력값 X 가중치 X = a Wa + b Wb + c Wc 회귀분석의 경우와 비슷한 형태입니다. (4) 입력된 값의 합계(가중합계)에 시그모이드 함수를 적용합니다. 로지스틱 회귀분석의 경우와 비슷한 형태를 가집니다. (5) 시그모이드 함수의 결과가 출력(y) 가 됩니다. 여러 시그모이드 함수 중에서 로지스틱함수가 가장 많이 사용됩니다. 이번에는 두 개의 출력이 있는 경우를 설명합니다. 입력변수가 X1, X2, X3 으로 세 개.. 2021. 5. 12. (P1)제01강(01)딥러닝 역사 - 수정 보완... 이제 딥러닝을 정리해 봅니다. 우선 딥러닝의 역사를 정리하여 보았습니다. 구글에서 "딥러닝의 역사"를 쳐 보면 많은 정보를 볼 수 있습니다. 그것을 정리해 본 것입니다. 물론 관련서적도 많이 참조하기도 했습니다. 계속 수정해 나갈 계획입니다. 참고 자료마다 조금씩 달라서 내용이 정확하게 맞지 않는 경우가 있습니다. 이 자료는 참고만 하시고 각자 추가하실 것을 권합니다. 그리고 틀린 부분이 있으시면 지적해 주시면 수정하도록 하겠습니다. 딥러닝의 역사를 시간대 순으로 보면 도움이 되더라구요. 그런데 연도에 대하여 너무 세부적으로 신경을 쓸 필요가 없는 듯 합니다. 무슨 시험 공부하듯 하실 필요는 없고, 대략 그러하구나.. 정도 참고자료: 처음배우는 인공지능 Deep Learning with R 3분 딥러닝 .. 2020. 9. 27. 이전 1 다음