如何解决XGBOOST代码的这两个选项之间有什么区别?
我以前使用以下语法运行xgboost:
from xgboost import XGBClassifier
newxgb = XGBClassifier(#list of params)
newxgb.fit(X_train,y_train)
在审查Kaggle笔记本时,我发现也可以用这种方式运行它:
nrounds=10000
import xgboost as xgb
params = {#List of params
}
X_train1,X_valid1,y_train1,y_valid1 = train_test_split(X_train,y_train,test_size=0.2)
d_train = xgb.DMatrix(X_train1,label=y_train1)
d_valid = xgb.DMatrix(X_valid1,label=y_valid1)
d_test = xgb.DMatrix(X_test)
watchlist = [(d_train,'train'),(d_valid,'valid')]
model = xgb.train(params,d_train,nrounds,watchlist,early_stopping_rounds=350,maximize=True,verbose_eval=10)
两者之间是否有区别?如果有,我什么时候应该使用它们? 如果没有区别,为什么同一个库会提供不同的代码并产生相同的结果?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。