250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 기초통계
- 노마드코더
- JavaScript
- 선형회귀
- 열심히
- 주간보고
- 파이썬
- 2021
- 리뷰
- bootcamp
- 자료구조
- 빅데이터
- 매일매일
- 꾸준히
- leetcode
- 딥러닝
- 코딩테스트
- MYSQL
- 독서
- Ai
- selenium
- 코드스테이츠
- pandas
- Codestates
- 부트캠프
- 재미져
- yolo
- python
- SQL
- 성실히
Archives
- Today
- Total
목록릿지 (1)
코딩일기
[DataScience] Ridge & Rasso regression (feat. L1, L2 Regularization)
안녕하십니까 다제입니다. 저희가 분산 / 편향 트레이드오프를 이야기하면서 과적합과 과소적합에 대해서 알아보았습니다. 일단 편향과 분산에 대해서 복습을 해보겠습니다. 편향(Bias)는 모델이 너무 복잡해서 복잡한 곡선이 많다는 것은 편향이 높다라고 말할 수 있습니다. 분산(variance)는 데이터 SET별로 모델이 얼마나 일관된 성능을 보이는를 나타냅니다. 즉, Regularization은 분산을 감소시켜 일반화 성능을 높이는 기법입니다. 첫째, 과소적합은 어떻게 해결할까요? 간단히 생각하보면 과소적합이라는 말은 모델이 단순하다 선형적이다 라는 말로 대신할 수 있습니다. 이러한 선형적인 모델은 차원을 높이면서 다른 말로는 feature의 수를 높여 해결할 수 있습니다. 둘째, 과적합은 어떻게 해결할까요?..
Code/머신러닝(ML)
2021. 2. 13. 14:40