728x90
지도학습은 크게 분류와 회귀로 나뉘는데, 분류는 샘플을 몇 개의 클래스 중 하나로 분류하는 것이고, 회귀는 클래스 중하나로 분류하는 것이 아니라 임의의 어떤 숫자를 예측하는 문제이다.
K-최근접 이웃 분류 알고리즘은 이전에서 다뤘는데, K-최근접 이웃 회귀는 분류와 똑같이 예측하려는 샘플에 가장 가까운 샘플 k 개를 선택한다. 하지만 회귀이기 때문에 이웃한 샘플의 타깃은 어떤 클래스가 아니라 임의의 수치이다. 수치들의 평균을 구하면 타깃을 예측할 수 있다.
결과에서 예측이 평균적으로 19g 정도 타깃값과 다르다는 것을 알 수 있습니다.
과대적합은 훈련 세트에서 점수가 굉장히 좋았는데 테스트 세트에서는 점수가 굉장히 나쁜 경우이고, 과소적합은 그반대이며 모델이 너무 단순하여 훈련세트에 적절히 훈련되지 않은 경우이다. 과소적합을 해결하기 위해서는 모델을 조금 더 복잡하게 만들면 도니다. k-최근접 이웃 알고리즘으로 모델을 더 복잡하게 만드는 방법은 이웃의 개수 k를 줄이는 것이다. 이웃의 개수가 줄면 훈련세트의 국지적이 패턴에 민감하고, 늘리면 일반적인 패턴을 따를 것이다.
728x90
'AI > Machine Learning&Deep Learning' 카테고리의 다른 글
Machine Learning_확률적 경사 하강법 (0) | 2021.03.28 |
---|---|
Machine Learning_선형 회귀 (0) | 2021.03.27 |
MachineLearning_회귀(Regression) (0) | 2021.03.22 |
MachineLearning_교차 검증 (0) | 2021.03.22 |
MachineLearning_앙상블 모델 (0) | 2021.03.22 |