250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- MYSQL
- Codestates
- 성실히
- leetcode
- 자료구조
- 딥러닝
- 열심히
- pandas
- 재미져
- JavaScript
- 리뷰
- 빅데이터
- selenium
- bootcamp
- 꾸준히
- 주간보고
- 2021
- 선형회귀
- SQL
- 파이썬
- 코딩테스트
- 부트캠프
- 독서
- 기초통계
- Ai
- yolo
- 매일매일
- 노마드코더
- 코드스테이츠
- python
Archives
- Today
- Total
목록PCA (1)
코딩일기
[DataScience] 머신러닝을 위한 차원축소 ( feat. PCA)
안녕하세요 다제 입니다. 저는 지금 머신러닝을 배우기 위한 사전 통계적, 수학적 개념을 배우고 있는 중입니다. 그 중에서도 선형대수 & 선형회귀 파트를 공부중에 있습니다. 오늘은 선형 회귀분석 중에서도 차원축소에 대해서 알아보도록 하겠습니다. PCA하는 방법 -> PCA의 component를 구하는 방법 순으로 알아보겠습니다. 우리가 강아지를 알아맞추는 머신러닝을 만든다고 해볼게요 강아지를 나타내는 수 많은 특징들이 feature로 들어갈 수 있습니다. 이 모든 feature을 분석하여 머신러닝을 만든다면 강아지를 알아맞추는데 꽤 정확한 프로그램이 되는게 맞을까요? 실제로 테스트를 진행해보았을 때 일부 feature를 빼고해도 유사하거나 또는 성능이 더 좋게 나오는 경우도 있습니다. 왜냐하면 이 특징들 ..
Code/머신러닝(ML)
2021. 1. 18. 18:59