250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 코드스테이츠
- python
- JavaScript
- pandas
- 선형회귀
- 자료구조
- MYSQL
- SQL
- 매일매일
- 주간보고
- Ai
- 2021
- 독서
- 빅데이터
- 재미져
- 딥러닝
- 꾸준히
- 열심히
- 기초통계
- 성실히
- 코딩테스트
- 리뷰
- Codestates
- leetcode
- bootcamp
- 파이썬
- 노마드코더
- yolo
- 부트캠프
- selenium
Archives
- Today
- Total
목록Dropout (1)
코딩일기
[Deep Learning] 4. 딥러닝에서 과적합을 방지하는 방법(feat. 학습 규제 전략 (Regularization Strategies))
안녕하십니까 다제입니다. 오늘은 딥러닝의 학습 규제 전략 (Regularization Strategies)에 대해서 알아보도록 하겠습니다. 1. EarlyStopping 1) 가중치가 최고 유용성 시점을 훨씬 지나서 더 업데이트 되지않도록 학습을 조기 중단함 2) 지난번에 보았던 코드를 가지고 EarlyStopping 실습을 진행해보겠습니다. # 모델생성 from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense, Flatten # 케라스에서는 Sequential 모델은 레이어를 선형으로 연결하여 구성합니다 model = Sequential() # 선형으로 들어가야하기 때문에 28*28 = 784 특성 벡..
Code/딥러닝(NL)
2021. 5. 3. 16:41