코딩일기

Logistic Regression Loss Function 미분하기 본문

Code/딥러닝(NL)

Logistic Regression Loss Function 미분하기

daje 2021. 8. 22. 00:58
728x90
반응형

 

 

안녕하십니까 다제입니다. 

 

오늘은 Andrew Ng 교수님의 유튜브 Logistic Regression Gradient Descent (C1W2L09) 강의 중

아래 노란색으로 마킹한 부분이 이해가 되지 않아서 깊게 파보았습니다. 

 

 

먼저 da에 대해서 수식을 풀어서 기재해 보겠습니다. 

 

 

$$ 'da = -\frac{yloga + (1-y)log(1-a)}{da}$$

 

여기에서 $loga$에  지수 e가 생략되어 있기에 $lna$라고 생각하시면 됩니다. 

 

먼저 결론부터 말씀을 드리면,

$lna$를 미분하게 되면 $\frac{1}{a}$ 이고,  $ln(1-a)$를 미분하게 되면 $\frac{1}{1-a}$ 이 됩니다. 

 

그렇기에 아래와 같은 식으로 변경될 수 있는 것입니다. 

$$ 'da = -\frac{y}{a} + \frac{(1-y)}{(1-a)}$$

 

그럼 어떻게 하여 $lna$를 미분하면 $\frac{1}{a}$가 되는지 수식으로 기재해보겠습니다. 

 

 

혹시라도 위 그림의 수식이 잘 이해가 안되신다면 유튜브 영상을 참고하시면 좋을 것 같습니다.

 

총 보셔야할 영상은 2가지 입니다. 

1) 지수함수의 도함수 구하는 영상  

2) 지수함수의 개념 

 

공대생이나, 컴공을 전공하시는 분들은 이런 부분이 매우 쉬우시겠지만, 

저에게는 매우 어렵고 힘든 부분입니다. 

 

오늘도 방문하여 주셔서 너무 감사드리고, 앞으로도 자주 소통해주세요! 

728x90
반응형
Comments