Code/딥러닝(NL)
Logistic Regression Loss Function 미분하기
daje
2021. 8. 22. 00:58
728x90
반응형
안녕하십니까 다제입니다.
오늘은 Andrew Ng 교수님의 유튜브 Logistic Regression Gradient Descent (C1W2L09) 강의 중
아래 노란색으로 마킹한 부분이 이해가 되지 않아서 깊게 파보았습니다.
먼저 da에 대해서 수식을 풀어서 기재해 보겠습니다.
$$ 'da = -\frac{yloga + (1-y)log(1-a)}{da}$$
여기에서 $loga$에 지수 e가 생략되어 있기에 $lna$라고 생각하시면 됩니다.
먼저 결론부터 말씀을 드리면,
$lna$를 미분하게 되면 $\frac{1}{a}$ 이고, $ln(1-a)$를 미분하게 되면 $\frac{1}{1-a}$ 이 됩니다.
그렇기에 아래와 같은 식으로 변경될 수 있는 것입니다.
$$ 'da = -\frac{y}{a} + \frac{(1-y)}{(1-a)}$$
그럼 어떻게 하여 $lna$를 미분하면 $\frac{1}{a}$가 되는지 수식으로 기재해보겠습니다.
혹시라도 위 그림의 수식이 잘 이해가 안되신다면 유튜브 영상을 참고하시면 좋을 것 같습니다.
총 보셔야할 영상은 2가지 입니다.
2) 지수함수의 개념
공대생이나, 컴공을 전공하시는 분들은 이런 부분이 매우 쉬우시겠지만,
저에게는 매우 어렵고 힘든 부분입니다.
오늘도 방문하여 주셔서 너무 감사드리고, 앞으로도 자주 소통해주세요!
728x90
반응형