250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 주간보고
- 코드스테이츠
- 빅데이터
- 자료구조
- MYSQL
- 딥러닝
- 파이썬
- 2021
- 꾸준히
- 재미져
- pandas
- yolo
- JavaScript
- 열심히
- 선형회귀
- 성실히
- 부트캠프
- Ai
- bootcamp
- selenium
- 노마드코더
- 매일매일
- python
- 리뷰
- 기초통계
- Codestates
- 코딩테스트
- 독서
- SQL
- leetcode
Archives
- Today
- Total
코딩일기
Logistic Regression Loss Function 미분하기 본문
728x90
반응형
안녕하십니까 다제입니다.
오늘은 Andrew Ng 교수님의 유튜브 Logistic Regression Gradient Descent (C1W2L09) 강의 중
아래 노란색으로 마킹한 부분이 이해가 되지 않아서 깊게 파보았습니다.
먼저 da에 대해서 수식을 풀어서 기재해 보겠습니다.
$$ 'da = -\frac{yloga + (1-y)log(1-a)}{da}$$
여기에서 $loga$에 지수 e가 생략되어 있기에 $lna$라고 생각하시면 됩니다.
먼저 결론부터 말씀을 드리면,
$lna$를 미분하게 되면 $\frac{1}{a}$ 이고, $ln(1-a)$를 미분하게 되면 $\frac{1}{1-a}$ 이 됩니다.
그렇기에 아래와 같은 식으로 변경될 수 있는 것입니다.
$$ 'da = -\frac{y}{a} + \frac{(1-y)}{(1-a)}$$
그럼 어떻게 하여 $lna$를 미분하면 $\frac{1}{a}$가 되는지 수식으로 기재해보겠습니다.
혹시라도 위 그림의 수식이 잘 이해가 안되신다면 유튜브 영상을 참고하시면 좋을 것 같습니다.
총 보셔야할 영상은 2가지 입니다.
2) 지수함수의 개념
공대생이나, 컴공을 전공하시는 분들은 이런 부분이 매우 쉬우시겠지만,
저에게는 매우 어렵고 힘든 부분입니다.
오늘도 방문하여 주셔서 너무 감사드리고, 앞으로도 자주 소통해주세요!
728x90
반응형
'Code > 딥러닝(NL)' 카테고리의 다른 글
Sequence Model References(feat. Coursera Andrew Ng) (0) | 2021.10.02 |
---|---|
[quiz] Hyperparameter tuning, Batch Normalization, Programming Frameworks (0) | 2021.08.24 |
YOLO4 (0) | 2021.06.03 |
[Deep Learning] 6. Convolutional Neural Network(feat. CNN) (0) | 2021.05.05 |
[Deep Learning] 5. 딥러닝 하이퍼파라미터 튜닝 (2) | 2021.05.04 |