250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- pandas
- selenium
- yolo
- 딥러닝
- 리뷰
- 재미져
- Codestates
- 주간보고
- 2021
- 자료구조
- 열심히
- 부트캠프
- 빅데이터
- 선형회귀
- python
- 매일매일
- 코딩테스트
- JavaScript
- leetcode
- 성실히
- 노마드코더
- 꾸준히
- 코드스테이츠
- 독서
- 파이썬
- Ai
- 기초통계
- MYSQL
- bootcamp
- SQL
Archives
- Today
- Total
목록로스함수 미분 (1)
코딩일기
Logistic Regression Loss Function 미분하기
안녕하십니까 다제입니다. 오늘은 Andrew Ng 교수님의 유튜브 Logistic Regression Gradient Descent (C1W2L09) 강의 중 아래 노란색으로 마킹한 부분이 이해가 되지 않아서 깊게 파보았습니다. 먼저 da에 대해서 수식을 풀어서 기재해 보겠습니다. $$ 'da = -\frac{yloga + (1-y)log(1-a)}{da}$$ 여기에서 $loga$에 지수 e가 생략되어 있기에 $lna$라고 생각하시면 됩니다. 먼저 결론부터 말씀을 드리면, $lna$를 미분하게 되면 $\frac{1}{a}$ 이고, $ln(1-a)$를 미분하게 되면 $\frac{1}{1-a}$ 이 됩니다. 그렇기에 아래와 같은 식으로 변경될 수 있는 것입니다. $$ 'da = -\frac{y}{a} + \..
Code/딥러닝(NL)
2021. 8. 22. 00:58