모델 구성¶
enable_constant_model¶
Constant models (String)
Default value 'auto'
상수 모델 활성화 여부(〈auto〉/〉on〉/〉off〉)
enable_decision_tree¶
Decision Tree models (String)
Default value 'auto'
Decision Tree 모델을 활성화할지 여부 (〈auto〉/〉on〉/〉off〉). 〈auto〉 는 상수가 아닌 모델만 선택하지 않는 한 Decision Tree를 비활성화합니다.
enable_glm¶
GLM models (String)
Default value 'auto'
GLM 모델 활성화 여부 (〈auto〉/〉on〉/〉off〉)
enable_xgboost_gbm¶
XGBoost GBM models (String)
Default value 'auto'
XGBoost GBM 모델 활성화 여부 (〈auto〉/〉on〉/〉off〉)
enable_lightgbm¶
LightGBM models (String)
Default value 'auto'
LightGBM 모델 활성화 여부 (〈auto〉/〉on〉/〉off〉)
enable_tensorflow¶
TensorFlow models (String)
Default value 'auto'
TensorFlow 모델 활성화 여부 (〈auto〉/〉on〉/〉off〉)
enable_grownet¶
PyTorch GrowNet models (String)
Default value 'auto'
PyTorch 기반 GrowNet 모델 활성화 여부 (〈auto〉/〉on〉/〉off〉)
enable_ftrl¶
FTRL models (String)
Default value 'auto'
FTRL 지원 활성화 여부(정규화된 리더 따르기) 모델 (〈auto〉/〉on〉/〉off〉)
enable_rulefit¶
RuleFit models (String)
Default value 'auto'
RuleFit 지원 활성화 여부(베타 버전, mojo 없음) (〈auto〉/〉on〉/〉off〉)
enable_zero_inflated_models¶
Zero-Inflated models (String)
Default value 'auto'
y >= 0, y.std() > y.mean()과 같은 특정 조건을 충족하는 영과잉 목표 값이 있는 회귀 문제에 대해 영과잉 모델의 자동 추가를 활성화할지 여부
enable_xgboost_rapids¶
Enable RAPIDS-cudf extensions to XGBoost GBM/Dart (Boolean)
Default value False
XGBoost GBM/Dart에 대한 RAPIDS 확장의 활성화 여부. 선택하면 python 스코어링 패키지는 GPU 시스템에서만 사용할 수 있습니다.
enable_rapids_cuml_models¶
Whether to enable RAPIDS CUML GPU models (no mojo) (Boolean)
Default value False
GPU 기반 RAPIDS CUML 모델의 활성화 여부. mojo 지원은 없지만 python 스코어링은 지원됩니다. 알파 테스트 상태입니다.
enable_rapids_models_dask¶
Whether to enable RAPIDS CUML GPU models to use Dask (no mojo) (Boolean)
Default value False
가능한 RAPIDS CUML 모델에 대한 다중 GPU 모드 활성화 여부. mojo 지원은 없지만 python 스코어링은 지원됩니다. 알파 테스트 상태입니다.
enable_xgboost_rf¶
Enable XGBoost RF mode (String)
Default value 'auto'
- 조기 종료 없이 XGBoost RF 모드의 활성화 여부.
켜져 있지 않으면 비활성화됩니다.
enable_xgboost_gbm_dask¶
Enable dask_cudf (multi-GPU) XGBoost GBM/RF (String)
Default value 'auto'
- XGBoost GBM/RF의 dask_cudf(멀티 GPU) 버전의 활성화 여부.
켜져 있지 않으면 비활성화됩니다. 조기 종료가 없는 단일 최종 모델에만 적용됩니다. Shapley는 불가능합니다.
enable_lightgbm_dask¶
Enable dask (multi-node) LightGBM (String)
Default value 'auto'
- 다중 노드 LightGBM의 활성화 여부.
켜져 있지 않으면 비활성화됩니다.
hyperopt_shift_leak¶
Whether to do hyperopt for leakage/shift (Boolean)
Default value False
- num_inner_hyperopt_trials_prefinal > 0인 경우
그런 다음 누출/이동 감지 중에 하이퍼 매개변수 조정을 수행할지 여부. 사소한 누출/이동을 찾는 데 유용할 수 있지만 일반적으로 필요하지 않습니다.
hyperopt_shift_leak_per_column¶
Whether to do hyperopt for leakage/shift for each column (Boolean)
Default value False
- num_inner_hyperopt_trials_prefinal > 0인 경우
그런 다음 각 열을 확인할 때 누출/이동 감지 시 하이퍼 파라미터 조정 여부.
num_inner_hyperopt_trials_prefinal¶
Number of trials for hyperparameter optimization during model tuning only (Number)
Default value 0
- 조정 및 진화 모델을 위한 Optuna 하이퍼파라미터 최적화 시도 횟수.
0은 시도가 없음을 의미합니다. 작은 데이터의 경우 100을 선택하는 것이 좋으며 큰 데이터의 경우 결과가 빨리 필요한 경우 작은 값이 합리적입니다. RAPIDS 또는 DASK를 사용하는 경우 하이퍼파라미터 최적화는 GPU에 데이터를 계속 유지합니다. 현재 XGBoost GBM/Dart 및 LightGBM에 적용됩니다. 내부 모델 적합/예측 외부에 DAI의 오버헤드가 높을 때 유용하므로 해당 오버헤드 없이 조정됩니다. 그러나 조정 또는 진화를 수행할 때 단일 폴드에 과적합될 수 있으며 CV를 사용하는 경우 폴드 하이퍼파라미터를 평균화하면 예기치 않은 결과가 발생할 수 있습니다.
num_inner_hyperopt_trials_final¶
Number of trials for hyperparameter optimization for final model only (Number)
Default value 0
- 최종 모델에 대한 Optuna 하이퍼파라미터 최적화 시도 횟수.
0은 시도가 없음을 의미합니다. 작은 데이터의 경우 100을 선택하는 것이 좋으며 큰 데이터의 경우 결과가 빨리 필요한 경우 작은 값이 합리적입니다. num_inner_hyperopt_trials=0인 경우에도 최종 모델에만 적용됩니다. RAPIDS 또는 DASK를 사용하는 경우 하이퍼파라미터 최적화는 GPU에 데이터를 계속 유지합니다. 현재 XGBoost GBM/Dart 및 LightGBM에 적용됩니다. 내부 모델 적합/예측 외부에 DAI의 오버헤드가 높을 때 유용하므로 해당 오버헤드 없이 조정됩니다. 그러나 최종 모델의 경우 각 폴드가 독립적으로 최적화되고 각 폴드에 과적합될 수 있으며, 그 후 예측이 평균화됩니다(따라서 조정 또는 진화로 CV를 수행할 때 하이퍼파라미터를 평균화하는 데 문제가 없음).
num_hyperopt_individuals_final¶
Number of individuals in final ensemble to use Optuna on (Number)
Default value -1
하이퍼파라미터 조정으로 최적화할 최종 모델(주어진 기본 모델에 대한 모든 폴드/반복)의 개체 수.
-1은 모두를 의미합니다. 0은 Optuna 시도를 선택하지 않는 것과 같습니다. 앙상블에서 최상의 개체(즉, 값 1)의 하이퍼파라미터를 최적화하는 데에만 도움이 될 수 있습니다.
optuna_pruner¶
Optuna Pruners (String)
Default value 'MedianPruner'
사용할 Optuna Pruner(Optuna 콜백을 지원하는 XGBoost 및 LightGBM에 적용 가능). 비활성화하려면 None을 선택합니다.
optuna_sampler¶
Optuna Samplers (String)
Default value 'TPESampler'
사용할 Optuna Pruner(Optuna 콜백을 지원하는 XGBoost 및 LightGBM에 적용 가능).
enable_xgboost_hyperopt_callback¶
Enable Optuna XGBoost Pruning callback (Boolean)
Default value True
가망 없는 실행을 중단하기 위해 Optuna의 XGBoost Pruning 콜백을 활성화할지 여부. 학습률을 조정하는 경우 수행되지 않습니다.
enable_lightgbm_hyperopt_callback¶
Enable Optuna LightGBM Pruning callback (Boolean)
Default value True
가망 없는 실행을 중단하기 위해 Optuna의 LightGBM Pruning 콜백을 활성화할지 여부. 학습률을 조정하는 경우 수행되지 않습니다.
enable_xgboost_dart¶
XGBoost Dart models (String)
Default value 'auto'
XGBoost Dart 모델 활성화 여부 (〈auto〉/〉on〉/〉off〉)
enable_xgboost_dart_dask¶
Enable dask_cudf (multi-GPU) XGBoost Dart (String)
Default value 'auto'
- XGBoost GBM/Dart의 dask_cudf(다중 GPU) 버전 활성화 여부.
켜져 있지 않으면 비활성화됩니다. GPU가 1개만 있는 경우 use_dask_for_1_gpu가 True이면 dask_cudf만 사용합니다.
조기 종료가 없는 단일 최종 모델에만 적용됩니다. Shapley는 불가능합니다.
enable_lightgbm_boosting_types¶
LightGBM Boosting types (List)
Default value ['gbdt']
LightGBM에 활성화할 부스팅 유형(gbdt = 부스트 트리, rf_early_stopping = 조기 종료가 있는 random forest rf = random forest(조기 종료 없음), dart = 조기 종료가 없는 드롭아웃 부스트 트리
enable_lightgbm_multiclass_balancing¶
LightGBM multiclass balancing (String)
Default value 'auto'
불균형 다중 클래스 문제에 대해 자동 클래스 가중치를 활성화할지 여부. 확률을 더 악화시킬 수 있지만 확률을 수동으로 보정하거나 레이블 생성 프로세스를 미세 조정할 필요 없이 희귀 클래스에 대한 혼동 행렬 기반 스코어러를 개선할 수 있습니다.
enable_lightgbm_cat_support¶
LightGBM categorical support (Boolean)
Default value False
LightGBM 범주형 특징 지원 활성화 여부(GPU가 활성화된 경우에도 CPU 모드에서 실행, MOJO 빌드 없음)
enable_lightgbm_linear_tree¶
LightGBM linear_tree mode (Boolean)
Default value False
LightGBM linear_tree 처리를 활성화할지 여부(현재 CPU 모드만, L1 정규화 없음 – mae 목표 및 MOJO 빌드 없음).
enable_lightgbm_extra_trees¶
LightGBM extra trees mode (Boolean)
Default value False
과적합을 방지하기 위해 LightGBM 추가 트리 모드를 활성화할지 여부
lightgbm_monotone_constraints_method¶
Method to use for monotonicity constraints for LightGBM (String)
Default value 'intermediate'
basic: 제약 조건이 적용되지 않은 경우만큼 빠르지만 예측을 과도하게 제약합니다. intermediate: 아주 약간 느리지만 단조로움을 유지하면서 훨씬 덜 제한적이며 basic보다 더 정확합니다. advanced: 느리지만 intermediate보다 훨씬 더 정확합니다.
lightgbm_monotone_penalty¶
LightGBM Monotone Penalty (Float)
Default value 0.0
트리의 첫 x(반내림) 수준에서 모노톤 분할을 금지합니다. 주어진 깊이에서 모노톤 분할에 적용되는 페널티는 연속적인 증가 함수 페널티 매개변수입니다. https://lightgbm.readthedocs.io/en/latest/Parameters.html#monotone_penalty
enable_lightgbm_cuda_support¶
LightGBM CUDA support (Boolean)
Default value False
- OpenCL 대신 LightGBM CUDA 구현을 활성화할지 여부.
CUDA with LightGBM은 Pascal+에서만 지원됨(컴퓨팅 기능 >=6.0)
show_constant_model¶
Whether to show constant models in iteration panel even when not best model (Boolean)
Default value False
최상 모델이 아닐 때도 반복 패널에 상수 모델을 표시할지 여부.
xgboost_reg_objectives¶
Select XGBoost regression objectives. (List)
Default value ['reg:squarederror']
- XGBoost에 허용되는 목표를 선택합니다.
허용된 뮤테이션에 추가됨(기본 reg:squarederror는 샘플 목록에 3번 있음) 참고: tweedie, gamma, poisson은 양수 값을 가진 대상에만 유효합니다. 참고: 목표는 (정규화된) 손실 함수의 형태와 관련되며,
메트릭은 검증 세트(DAI에 의해 외부 또는 내부적으로 생성됨)에서
측정된 비정규화 메트릭입니다.
xgboost_reg_metrics¶
Select XGBoost regression metrics. (List)
Default value ['rmse', 'mae']
- XGBoost에 허용되는 메트릭을 선택합니다.
허용된 뮤테이션에 추가됨(기본 rmse 및 mae는 샘플 목록에 두 번 있음). 참고: tweedie, gamma, poisson은 양수 값을 가진 대상에만 유효합니다.
xgboost_binary_metrics¶
Select XGBoost binary metrics. (List)
Default value ['logloss', 'auc', 'aucpr', 'error']
- XGBoost에 허용되는 목표를 선택합니다.
허용된 뮤테이션에 추가됨(모두 균일하게 샘플링됨).
lightgbm_reg_objectives¶
Select LightGBM regression objectives. (List)
Default value ['mse', 'mae']
- LightGBM에 허용되는 목표를 선택합니다.
허용된 뮤테이션에 추가됨(기본 mse는 선택한 경우 샘플 목록에 두 번 있음). 참고: quantile/huber 또는 fair를 선택하고 데이터가 정규화되지 않은 경우 params_lightgbm을 사용하여 LightGBM에 alpha(quantile 또는 huber의 경우) 또는 fairc(fair의 경우)의 합리적인 값을 지정하는 것이 좋습니다. 참고: mse는 L2 손실에 해당하는 rmse와 동일합니다. mae는 L1 손실입니다. 참고: tweedie, gamma, poisson은 양수 값을 가진 대상에만 유효합니다. 참고: 목표는 (정규화된) 손실 함수의 형태와 관련되며,
메트릭은 검증 세트(DAI에 의해 외부 또는 내부적으로 생성됨)에서
측정된 비정규화 메트릭입니다.
lightgbm_reg_metrics¶
Select LightGBM regression metrics. (List)
Default value ['rmse', 'mse', 'mae']
- LightGBM에 허용되는 메트릭을 선택합니다.
Added to allowed mutations (the default rmse is in sample list three times if selected). Note: If choose huber or fair and data is not normalized, recommendation is to use params_lightgbm to specify reasonable value of alpha (for huber or quantile) or fairc (for fair) to LightGBM. Note: tweedie, gamma, poisson are only valid for targets with positive values.
lightgbm_binary_objectives¶
Select LightGBM binary objectives. (List)
Default value ['binary', 'xentropy']
- LightGBM에 허용되는 목표를 선택합니다.
허용된 뮤테이션에 추가됨(기본 바이너리는 선택한 경우 샘플 목록에 두 번 있음)
lightgbm_binary_metrics¶
Select LightGBM binary metrics. (List)
Default value ['binary', 'binary', 'auc']
- LightGBM에 허용되는 바이너리 메트릭을 선택합니다.
허용된 뮤테이션에 추가됨(모두 균일하게 샘플링됨).
lightgbm_multi_metrics¶
Select LightGBM multiclass metrics. (List)
Default value ['multiclass', 'multi_error']
- 다중 클래스 LightGBM에 허용되는 메트릭을 선택합니다.
허용된 뮤테이션에 추가됨(선택한 경우 균등하게 샘플링됨).
tweedie_variance_power_list¶
tweedie_variance_power parameters (List)
Default value [1.5, 1.2, 1.9]
- tweedie가 사용되는 경우 XGBoostModel 및 LightGBMModel에 대해 시도할 tweedie_variance_power 매개변수.
첫 번째 값이 기본값입니다.
huber_alpha_list¶
huber parameters (List)
Default value [0.9, 0.3, 0.5, 0.6, 0.7, 0.8, 0.1, 0.99]
- Huber가 사용되는 경우 LightGBMModel에 대해 시도할 Huber 매개변수.
첫 번째 값이 기본값입니다.
fair_c_list¶
fair c parameters (List)
Default value [1.0, 0.1, 0.5, 0.9]
- fair가 사용되는 경우 LightGBMModel에 대해 시도할 fair c 매개변수.
첫 번째 값이 기본값입니다.
poisson_max_delta_step_list¶
poisson_max_delta_step parameters (List)
Default value [0.7, 0.9, 0.5, 0.2]
- poisson이 사용되는 경우 LightGBMModel에 대해 시도할 poisson max_delta_step 매개변수.
첫 번째 값이 기본값입니다.
quantile_alpha¶
quantile alpha parameters (List)
Default value [0.9, 0.95, 0.99, 0.6]
- quantile이 사용되는 경우 LightGBMModel에 대해 시도할 quantile alpha 매개변수입니다.
첫 번째 값이 기본값입니다.
reg_lambda_glm_default¶
default reg_lambda regularization parameter (Float)
Default value 0.0004
XGBoost 및 LightGBM에 대한 기본 reg_lambda 정규화.
params_tensorflow¶
Parameters for TensorFlow (Dict)
Default value {}
TensorFlow가 DAI 매개변수를 재정의하는 매개변수 예: params_tensorflow = 《{〈lr〉: 0.01, 〈add_wide〉: False, 〈add_attention〉: True, 〈epochs〉: 30, 〈layers〉: (100, 100), 〈activation〉: 〈selu〉, 〈batch_size〉: 64, 〈chunk_size〉: 1000, 〈dropout〉: 0.3, 〈strategy〉: 〈1cycle〉, 〈l1〉: 0.0, 〈l2〉: 0.0, 〈ort_loss〉: 0.5, 〈ort_loss_tau〉: 0.01, 〈normalize_type〉: 〈streaming〉}》 참조: https://keras.io/ , 예: 활성화의 경우: https://keras.io/activations/ 예 레이어: (500, 500, 500), (100, 100, 100), (100, 100), (50, 50) 전략: 〈1cycle〉 또는 〈one_shot〉, 참조: https://github.com/fastai/fastai 〈one_shot》 은 앙상블에 허용되지 않습니다. normalize_type: 〈streaming〉 또는 〈global〉 (sklearn StandardScaler 사용)
max_nestimators¶
Max. number of trees/iterations (Number)
Default value 3000
GBM 트리 또는 GLM 반복의 최대 수. 더 낮은 정확도 및/또는 더 높은 해석 가능성을 위해 줄일 수 있습니다. 조기 종료는 일반적으로 덜 선택합니다. fixed_max_nestimators > 0이면 무시됩니다.
fixed_max_nestimators¶
Fixed max. number of trees/iterations (-1 = auto mode) (Number)
Default value -1
GBM 트리 또는 GLM 반복의 최대 고정 수. > 0인 경우 max_nestimators를 무시하고 정확도가 낮거나 해석 가능성이 높기 때문에 자동 축소를 비활성화합니다. 조기 종료는 일반적으로 덜 선택합니다.
n_estimators_list_no_early_stopping¶
n_estimators list to sample from for model mutations for models that do not use early stopping (List)
Default value [50, 100, 150, 200, 250, 300]
LightGBM dart 모드와 일반 rf 모드는 조기 종료를 사용하지 않으며 n_estimators에 대해 이러한 값에서 샘플링합니다. XGBoost Dart 모드는 이러한 n_estimators에서도 샘플링합니다. 조기 종료 또는 콜백을 아직 지원하지 않는 XGBoost Dask 모델에도 적용됩니다. 기본 매개변수의 경우 목록에서 첫 번째 값을 선택하고 뮤테이션은 목록에서 샘플링합니다.
min_learning_rate_final¶
Minimum learning rate for final ensemble GBM models (Float)
Default value 0.01
최종 앙상블 GBM 모델의 학습률에 대한 하한입니다. 일부의 경우, 트리/반복의 최대 수가 최종 학습률에 충분치 않아, 조기 중단이 트리거되지 않고 최종 모델의 성능이 저하될 수 있습니다. 이 경우, 최소값을 올려 학습률을 높이거나 트리/반복의 최대 수를 늘릴 수도 있습니다.
max_learning_rate_final¶
Maximum learning rate for final ensemble GBM models (Float)
Default value 0.05
최종 앙상블 GBM 모델의 학습률 상한
max_nestimators_feature_evolution_factor¶
Reduction factor for max. number of trees/iterations during feature evolution (Float)
Default value 0.2
조정 및 기능 진화를 위해 max_nestimators가 감소되는 요소
min_learning_rate¶
Min. learning rate for feature engineering GBM models (Float)
Default value 0.05
특징 가공 GBM 모델의 학습률 하한
max_learning_rate¶
Max. learning rate for feature engineering GBM models (Float)
Default value 0.5
GBM 모델의 학습률 상한선 min_learning_rate 및 min_learning_rate_final을 재정의하려면 이 값을 더 작은 값으로 설정합니다.
tune_learning_rate¶
Whether to tune learning rate even for GBM algorithms with early stopping (Boolean)
Default value False
GBM 알고리즘에 대한 학습률을 조정할지 여부(단일 최종 모델만 수행하지 않는 경우). Optuna로 조정하는 경우 최적의 학습률을 분리하는 데 도움이 될 수 있습니다.
max_epochs¶
Max. number of epochs for TensorFlow / FTRL (Number)
Default value 10
TensorFlow 및 FTRL 모델의 최대 에포크 수
max_max_depth¶
Max. tree depth (and Max. max_leaves as 2**max_max_depth) (Number)
Default value 12
최대 트리 깊이(및 해당 최대 max_leaves는 2**max_max_depth)
max_max_bin¶
Max. max_bin for tree features (Number)
Default value 256
트리 특징의 최대 max_bin
rulefit_max_num_rules¶
Max. number of rules for RuleFit (-1 for all) (Number)
Default value -1
RuleFit 모델에 사용할 최대 규칙 수(모두인 경우 -1)
rulefit_max_tree_depth¶
rulefit_max_tree_depth (Number)
Default value 6
Max tree depth for RuleFit models
rulefit_max_num_trees¶
rulefit_max_num_trees (Number)
Default value 100
Max number of trees for RuleFit models
fixed_ensemble_level¶
Ensemble level for final modeling pipeline (Number)
Default value -1
고정 ensemble_level -1 = auto, ensemble_accuracy_switch, 정확도, 데이터 크기 등에 기반. 0 = 앙상블 없음, 검증된 반복/트리 수에 대한 최종 단일 모델만 있음 1 = 1 모델, 다중 앙상블 폴드(교차 검증) >=2 = >=2 모델, 다중 앙상블 폴드(교차 검증)
cross_validate_single_final_model¶
Cross-validate single final model (Boolean)
Default value True
- 활성화된 경우 교차 검증을 사용하여 단일 최종 모델에 대한 최적의 매개변수를 결정하고,
교육 홀드아웃 예측을 생성할 수 있습니다.
ensemble_meta_learner¶
Type of ensemble meta learner. Blender is recommended for most use cases. (String)
Default value 'blender'
여러 기본 모델로 구성된 최종 파이프라인을 생성하는 실험에 대해 기본 모델 예측을 결합하는 모델.
blender: 1에 추가되는 음수가 아닌 가중치로 선형 블렌드를 생성합니다(블렌딩) - 권장됨 extra_trees: 기본 모델을 비선형적으로 결합하는 트리 모델 생성(스태킹) - 실험적이며 활성화 설정도 권장됨 cross_validate_meta_learner. neural_net: 기본 모델(스택)을 비선형적으로 결합하는 신경망 모델 생성. 실험적이며 enable cross_validate_meta_learner도 설정하는 것이 좋습니다.
cross_validate_meta_learner¶
Cross-validate meta learner for final ensemble. (Boolean)
Default value False
활성화된 경우 교차 검증을 사용하여 메타 학습기 자체에 대한 앙상블을 생성합니다. 편향되지 않은 교육 홀드아웃 예측을 만들기 위해 ensemble_meta_learner=〉extra_trees〉 에 특히 권장합니다. 활성화된 경우 MOJO를 비활성화합니다. ensemble_meta_learner=〉blender〉 에는 필요하지 않습니다.》
parameter_tuning_num_models¶
Number of models during tuning phase (-1 = auto) (Number)
Default value -1
진화 전 단계에서 조정할 모델 수. 과도한 조정을 피하기 위해 이 값을 낮추거나 향상된 조정을 수행하기 위해 더 높일 수 있습니다. -1 : auto
imbalance_sampling_method¶
Sampling method for imbalanced binary classification problems (String)
Default value 'off'
불균형 바이너리 분류 문제에 대한 샘플링 방법. 선택 항목: 《auto》: 데이터를 기준으로 필요에 따라 두 클래스 모두 샘플링 《over_under_sampling》: 데이터를 기준으로 소수 클래스를 과도하게 샘플링하고 다수 클래스를 과소하게 샘플링. 《under_sampling》: 클래스 균형에 도달하기 위해 다수 클래스를 과소하게 샘플링》off》: 샘플링하지 않음
imbalance_sampling_threshold_min_rows_original¶
Threshold for minimum number of rows in original training data to allow imbalanced sampling techniques. For smaller data, will disable imbalanced sampling, no matter what imbalance_sampling_method is set to. (Number)
Default value 100000
더 작은 데이터의 경우 일반적으로 불균형 샘플링 방법을 사용하면 이점이 없습니다.
imbalance_ratio_sampling_threshold¶
Ratio of majority to minority class for imbalanced binary classification to trigger special sampling techniques if enabled (Number)
Default value 5
불균형 바이너리 분류의 경우: 모델 성능 향상을 시도하기 위해 샘플링 기술을 사용하여(imbalance_sampling_method에 의해 지정됨) 특수 불균형 모델을 가능하게 하는 소수 클래스에 대한 다수의 비율 또는 그 이상.
heavy_imbalance_ratio_sampling_threshold¶
Ratio of majority to minority class for heavily imbalanced binary classification to only enable special sampling techniques if enabled (Number)
Default value 25
불균형이 심한 바이너리 분류의 경우: 사전 샘플링 없이 전체 원본 데이터에서 특수한 불균형 모델만 사용할 수 있는 다수 클래스 대 소수 클래스의 비율 또는 그 이상.
imbalance_sampling_number_of_bags¶
Number of bags for sampling methods for imbalanced binary classification (if enabled). -1 for automatic. (Number)
Default value -1
-1: automatic
imbalance_sampling_max_number_of_bags¶
Hard limit on number of bags for sampling methods for imbalanced binary classification. (Number)
Default value 10
-1: automatic
imbalance_sampling_max_number_of_bags_feature_evolution¶
Hard limit on number of bags for sampling methods for imbalanced binary classification during feature evolution phase. (Number)
Default value 3
- 이동/누출/조정/특징 진화 모델에만 해당. 최종 모델에는 사용되지 않습니다. 최종 모델 수는
imbalance_sampling_max_number_of_bags로 제한될 수 있습니다.
imbalance_sampling_max_multiple_data_size¶
Max. size of data sampled during imbalanced sampling (in terms of dataset size) (Float)
Default value 1.0
- 불균형 샘플링 동안 샘플링된 데이터의 최대 크기(데이터 세트 크기 측면에서).
가방 수(대략)를 제어합니다. imbalance_sampling_number_of_bags == -1에만 해당합니다.
imbalance_sampling_target_minority_fraction¶
Target fraction of minority class after applying under/over-sampling techniques. -1.0 for automatic (Float)
Default value -1.0
- 0.5 값은 교육 데이터에 과소/과대 샘플링 기술을 적용한 후 모델/알고리즘이 균형 잡힌 대상 클래스 분포를 제공한다는 것을 의미합니다.
극단적으로 불균형한 원래 대상 분포에서 시작하는 경우 0.1 또는 0.01과 같은 더 작은 값을 선택하는 것이 합리적인 경우도 있습니다. -1.0: automatic
ftrl_max_interaction_terms_per_degree¶
Max. number of automatic FTRL interactions terms for 2nd, 3rd, 4th order interactions terms (each) (Number)
Default value 10000
자동 FTRL 상호작용 항의 수를 이 값 이하에서 샘플링하십시오(두 번째, 세 번째, 네 번째 항 각각에 대해.
enable_bootstrap¶
Whether to enable bootstrap sampling for validation and test scores. (Boolean)
Default value True
부트스트랩 샘플링을 활성화할지 여부. 부트스트랩 평균의 표준 오차를 기반으로 검증 및 테스트 점수에 대한 오차 막대를 제공합니다.
tensorflow_num_classes_switch¶
For classification problems with this many classes, default to TensorFlow (Number)
Default value 10
- 〈auto’로 설정된 다른 모델 대신
항상 TensorFlow(TensorFlow가 활성화된 경우)를 사용할 클래스 수(〈on’으로 설정된 모델은 계속 사용됨).
prediction_intervals¶
Compute prediction intervals (Boolean)
Default value True
경험적 예측 구간을 계산합니다(홀드아웃 예측 기반).
prediction_intervals_alpha¶
Confidence level for prediction intervals (Float)
Default value 0.9
예측 구간에 대한 신뢰 수준입니다.
pred_labels¶
Output labels for predictions created during the experiment for classification problems. (Boolean)
Default value True
- 예측된 대상 클래스와 함께 하나의 추가 출력 열을 추가합니다(클래스별 확률 뒤에).
다중 클래스에 argmax를 사용하고, 바이너리 문제에 〈threshold_scorer〉 전문가 설정으로 제어되는 최적 스코어러에 의해 정의된 임계값을 사용합니다. 이 설정은 실험에 의해 생성되는 교육, 검증 및 테스트 세트 예측(해당되는 경우)을 제어합니다. MOJO, 스코어링 파이프라인 및 클라이언트 API는 이 매개변수의 자체 버전을 통해 이 동작을 제어합니다.
max_abs_score_delta_train_valid¶
Max. absolute delta between training and validation scores for tree models. (Float)
Default value 0.0
- 트리 기반 모델(LightGBM, XGBoostGBM, CatBoost)에 대한 조기 종료 동작을 수정하여
(홀드아웃이 아닌 학습 데이터에 대한) 학습 점수와 검증 점수가 이 절대값보다 크지 않도록 변경합니다(즉, abs(train_score - valid_score) > max_abs_score_delta_train_valid 인 경우에 트리 추가 종료). 이 값의 의미가 선택한 스코어러 및 데이터 세트에 따라 다름을 명심하십시오(즉, LogLoss의 경우 0.01은 MSE의 경우 0.01과 다름). 실험적 옵션은 모델 복잡성을 낮게 유지하기 위한 전문가용입니다. 비활성화하려면 0.0으로 설정하십시오.
max_rel_score_delta_train_valid¶
Max. relative delta between training and validation scores for tree models. (Float)
Default value 0.0
- 트리 기반 모델(LightGBM, XGBoostGBM, CatBoost)에 대한 조기 종료 동작을 수정하여
(홀드아웃이 아닌 학습 데이터에 대한) 학습 점수와 검증 점수가 이 상대값보다 크지 않도록 변경합니다(즉, abs(train_score - valid_score) > max_rel_score_delta_train_valid * abs(train_score) 인 경우에 트리 추가 종료). 이 값의 의미가 선택한 스코어러 및 데이터 세트에 따라 다릅니다(즉, LogLoss의 경우 0.01은 MSE 등의 경우 0.01과 다름). 실험적 옵션 모델 복잡성을 낮게 유지하기 위한 전문가용입니다. 비활성화하려면 0.0으로 설정하십시오.
glm_lambda_search¶
Do lambda search for GLM (String)
Default value 'auto'
- XGBoost GLM의 주어진 알파에 대한 최적 lambda를 검색할지 여부.
〈auto’ 인 경우 교육 데이터에 final_pipeline_data_size보다 더 많은 행 * 열이 있거나 다중 클래스 실험의 경우 비활성화됩니다. ensemble_level = 0인 경우 항상 비활성화됩니다. 언제나 좋은 접근 방식은 아니며 그리드 검색에 비해 느리지만 성과가 좋을 수 있습니다.
glm_lambda_search_by_eval_metric¶
Do lambda search for GLM by exact eval metric (Boolean)
Default value False
- XGBoost GLM lambda 검색이 활성화된 경우 평가 메트릭으로 검색할지 여부(True)
또는 실제 DAI 스코어러 사용 여부(False).
enable_early_stopping_threshold¶
Early stopping threshold (String)
Default value 'auto'
- 정확도에 따라 달라지는 LightGBM에 대한 조기 종료 임계값을 활성화할지 여부.
검증 점수가 임계값 미만으로 변경되면 교육을 중지합니다. 이렇게 하면 트리가 줄어들고 일반적으로 불필요한 트리를 피할 수 있지만 정확도가 낮아질 수 있습니다. 〈off〉 는 0 값을 사용합니다. 〈on〉 은 더 낮은 정확도 다이얼에 대해 더 높은 값으로 이어집니다. 〈auto〉 는 reduce_mojo_size가 true가 아닌 경우 〈off〉 로 이어집니다.
glm_optimal_refit¶
glm_optimal_refit (Boolean)
Default value True
dump_modelparams_every_scored_indiv¶
Enable detailed scored model info (Boolean)
Default value True
점수가 부여된 모든 개인의 모델 매개변수를 csv/tabulated/json 파일에 덤프할지 여부를 파일로 생성합니다. 예: individual_scored.params.[txt, csv, json]