본 게시글은 혼공학습단 11기로, 복습 차원에서 책 내용을 제 스타일대로 요약한 내용입니다.
#챕터5 #주니코니 #힘내랏❤️
목차
-결정트리의 장단점
-교차검증을 그림으로 설명
-랜덤 포레스트/엑스트라 트리
-그레디언트 부스팅
-편향과 분산
-참고자료
🌲결정트리의 장점
-직관적인 설명(보고하기에 좋음)
-특성중요도 계산 가능
print(dt.feature_importances_)
단점
제한없이(map_depth) 학습시 과대적합에 쉬움 = 가지치기!
🤞교차검증을 그림으로 설명
🌳랜덤 포레스트/엑스트라 트리
랜덤 포레스트 :
다수의 결정트리가 모인, 숲을 의미
bootstrap(bagging), 중복 허용해서 훈련 샘플을 만듦 -> 훈련셋 과대적합 ⬇️
단점은 계산속도가 느리다
엑스트라 트리 :
Extremely Randomized Trees의 줄임말로 랜덤 포레스트의 단점을 보완한 모델
전체 훈련 세트 사용하되 노드(특성) 랜덤으로 분할 -> 계산속도가 ⬆️
⬆️그레디언트 부스팅
불균형 데이터에 좋음
왜?
아래 설명 발견 ㅎㅎ
➡️편향과 분산
참고자료
트리설명이 참 잘되어있는 블로그가 있었다
편향과 분산 설명 잘되어있는 블로그가 있었다
'머신러닝' 카테고리의 다른 글
[혼공머신] 6주차_인공신경망, dnn (1) | 2024.02.15 |
---|---|
[혼공머신] 5주차_k-means, PCA (1) | 2024.02.01 |
pandas, 시리즈, 데이터 프레임 (1) | 2024.01.23 |
[혼공머신] 3주차_로지스틱회귀&시그모이드, 소프트맥스 함수 (1) | 2024.01.21 |
[혼공머신] 2주차_knn 최적의 k값 찾기 시각화 (0) | 2024.01.14 |