250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- leetcode
- selenium
- 코딩테스트
- 2021
- pandas
- JavaScript
- 부트캠프
- 코드스테이츠
- SQL
- bootcamp
- 자료구조
- yolo
- Codestates
- 재미져
- 리뷰
- 성실히
- 독서
- Ai
- 빅데이터
- 주간보고
- 선형회귀
- python
- 기초통계
- 딥러닝
- MYSQL
- 매일매일
- 열심히
- 파이썬
- 꾸준히
- 노마드코더
Archives
- Today
- Total
목록boost (1)
코딩일기
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/cNYji4/btqYTOT6hwe/a6aRxtWHhcDVWzD7ydeDv0/img.jpg)
안녕하십니까 다제입니다. 오늘은 GBM에 대해서 알아보도록 하겠습니다. 해당 자료는 구글링, 고려대 강필성교수님, 이수안연구소, StatQuest를 통해 학습한 내용을 정리한 포스터 입니다. 본 포스터는 머신러닝을 학습하지 않은 분들에게 다소 이질적으로 느껴지실 수 있음을 사전에 안내드립니다. 1. GBM의 개념(Gradient Boost Model) -. 여러 개의 머신러닝으로 구성된 모델은 모집단의 약 80%의 데이터를 학습하고 약 20%를 예측하는데 사용합니다. -. 이때 여러 개의 머신러닝은 순차적으로 구성이 되며, 머신러닝이 예측한 값과 실제 데이터 값 사이의 차이를 "잔차"라고 합니다. -. 첫번째 생성된 머신러닝이 발생시킨 잔차를 두번째 생성된 머신러닝이 학습하게 되며, N번째까지 반복적으로..
Code/머신러닝(ML)
2021. 2. 28. 14:00