[혼공머신] p.271. 그레디언트부스팅

33 views
Skip to first unread message

MGk

unread,
Jul 26, 2021, 3:40:18 AM7/26/21
to 머신러닝/딥러닝 도서 Q&A
안녕하세요. 

그레디언트 부스팅(gb)에서 랜덤서치로 하이퍼 파라미터 찾아도 되나요?

그레디언트 부스팅의 train_ input값은 스케일링 전처리(StandardScale) 해야 하나요?

gb = GradientBoostingClassifier()

# hyperparameter 탐색
params = {'n_estimators': np.arange(50,150,1), 'learning_rate': np.arange(0.05, 1, 0.02)}

from sklearn.model_selection import RandomizedSearchCV
randomSearch= RandomizedSearchCV(gb, params, n_iter=100, n_jobs=-1)
randomSearch.fit(train_input, train_target)

gb =  randomSearch.best_estimator_
gb.fit(train_input, train_target)

Haesun Park

unread,
Jul 26, 2021, 6:15:08 AM7/26/21
to MGk, 머신러닝/딥러닝 도서 Q&A
안녕하세요. 박해선입니다.

그리드서치나 랜덤서치 같은 하이퍼파라미터 탐색 도구는 
그레이디언트 부스팅을 포함해 사이킷런의 어떤 모델과도 함께 사용할 수 있습니다.
그레이디언트 부스팅은 결정 트리를 기반으로 하기 때문에 전처리 과정이 필요하지 않습니다.

감사합니다.

2021년 7월 26일 (월) 오후 4:40, MGk <mgkan...@gmail.com>님이 작성:
--
이 메일은 Google 그룹스 '머신러닝/딥러닝 도서 Q&A' 그룹에 가입한 분들에게 전송되는 메시지입니다.
이 그룹에서 탈퇴하고 더 이상 이메일을 받지 않으려면 ml-dl-book-qn...@googlegroups.com에 이메일을 보내세요.
웹에서 이 토론을 보려면 https://groups.google.com/d/msgid/ml-dl-book-qna/444ab1da-d852-4472-b79b-4c9034ad189en%40googlegroups.com을(를) 방문하세요.
Reply all
Reply to author
Forward
0 new messages