系统配置¶
exclusive_mode¶
Exclusive level of access to node resources (String)
默认值 'safe'
safe:假设可能在同一个节点上运行另一个实验。moderate:假设在同一个节点上不运行任何其他实验或任务,但仍然仅使用物理核心计数。max:假设除了此实验之外,节点上根本不运行任何其他东西。如果多节点已启用,则此选项将不起作用,除非在仍将应用此选项时,worker_remote_processors=1。可以选择每种独占模式,然后使用各个专家设置进行微调。更改独占模式会将所有与独占模式相关的选项重置为默认值,然后重新应用新模式的特定规则,这一操作将撤销对独占模式规则中的专家选项进行的任何微调。如果选择根据父实验执行新/持续/调整/重新训练实验,则不会重新应用所有模式规则,而且保留任何微调。要重置模式行为,可以在“安全”和所需模式之间切换。这样,新的子实验将使用所选模式的默认系统资源。
max_cores¶
Number of cores to use (0 = all) (Number)
默认值 0
每个实验要使用的 CPU 核心的最大数量。设置为 <= 0 则表示使用所有核心。也可将环境变量 ‘OMP_NUM_THREADS’ 设置为要用于 OpenMP 的核心数量(例如,在 bash 中:’export OMP_NUM_THREADS=32’ 和 ‘export OPENBLAS_NUM_THREADS=32’)。
max_fit_cores¶
Maximum number of cores to use for model fit (Number)
默认值 10
控制模型拟合调用需使用的最大核心数量。(0 = 所有物理核心 >= 1 该计数)
use_dask_cluster¶
If full dask cluster is enabled, use full cluster (Boolean)
默认值 True
是否使用全多节点分布式聚类 (True) 还是单节点 dask (False) 。在某些情况下,使用整个聚类的效率会非常低。例如,如果针对中等大小的数据一次使用一个 DGX,使用多个 DGX 节点会更高效。
max_predict_cores¶
Maximum number of cores to use for model predict (Number)
默认值 0
控制模型预测调用需使用的最大核心数量。(0 = 所有物理核心 >= 1 该计数)
max_predict_cores_in_dai¶
Maximum number of cores to use for model transform and predict when doing MLI and AutoDoc. (Number)
默认值 4
控制在 DAI-MLI GUI 和 R/Py 客户端中执行操作时,模型的转换和预测调用需使用的最大核心数量(0 = 所有物理核心 >= 1 该计数)
batch_cpu_tuning_max_workers¶
Tuning workers per batch for CPU (Number)
默认值 0
控制 CPU 模式中用于调优的工作节点数量(0 = 插槽数 -1 = 所有物理核心 >= 1 该计数)。工作节点越多,并行线程越多,但模型相互之间了解的更少。
cpu_max_workers¶
Num. workers for CPU training (Number)
默认值 0
控制 CPU 模式中用于训练的工作节点数量(0 = 插槽数 -1 = 所有物理核心 >= 1 该计数)
assumed_simultaneous_dt_forks_munging¶
Assumed/Expected number of munging forks (Number)
默认值 3
用于确保数据表不会导致系统过载的预期最大分叉数。如果在实际情况下超过此数值,则系统将开始出现速度变慢的问题
max_max_dt_threads_munging¶
Max. threads for datatable munging (Number)
默认值 4
用于数据再处理的数据表的最大线程数
max_max_dt_threads_readwrite¶
Max. threads for datatable reading/writing (Number)
默认值 4
用于读取/写入文件的数据表的最大线程数
max_dt_threads_munging¶
Max. Num. of threads to use for datatable and openblas for munging and model training (0 = all, -1 = auto) (Number)
默认值 -1
数据再处理期间,用于数据表的最大线程数(每个进程)(0 = 全部,-1 = 自动)。如有多个分叉,线程会分布于各个分叉上。
max_dt_threads_readwrite¶
Max. Num. of threads to use for datatable read and write of files (0 = all, -1 = auto) (Number)
默认值 -1
数据读取和写入期间,用于数据表的最大线程数(每个进程)(0 = 全部,-1 = 自动)。如有多个分叉,线程会分布于各个分叉上。
max_dt_threads_stats_openblas¶
Max. Num. of threads to use for datatable stats and openblas (0 = all, -1 = auto) (Number)
默认值 -1
用于数据表统计和 openblas 的最大线程数(每个进程)(0 = 全部,-1 = 自动)。如有多个分叉,线程会分布于各个分叉上。
num_gpus_per_experiment¶
#GPUs/Experiment (-1 = all) (Number)
默认值 -1
每个实验中用于训练任务的 GPU 数量。设置为 -1 表示使用所有 GPU。实验会生成很多不同的模型。目前,若 num_gpus_per_experiment!=-1,则会禁用 GPU 锁定,因此只推荐将此参数用于单个实验和单个用户。如果 GPU 已禁用或系统上没有 GPU,则忽略此参数。如需更多信息,请访问 https://github.com/NVIDIA/nvidia-docker/wiki/nvidia-docker#gpu-isolation。当使用 dask 时,在多节点环境下,此参数也被称为单节点值。对于 ImageAutoModel,由于整个实验仅有一个模型类型,因此此参数也称为用于整个型号类型的 GPU 总数。例如如果有 4 GPU,并想要让 2 个 ImageAuto 实验各在 2 个 GPU 上运行,可对各个实验将 num_gpus_per_experiment 设置为 2,4 个 GPU 中的每个 GPU 一次仅由 2 个实验(每个实验使用 2 个 GPU)使用。
min_num_cores_per_gpu¶
Num Cores/GPU (Number)
默认值 2
- 每个 GPU 的 CPU 核心数。限制 GPU 数量,使每个 GPU 都有足够核心。
设置为 -1 表示禁用。
num_gpus_per_model¶
#GPUs/Model (-1 = all) (Number)
默认值 1
每个模型训练任务要使用的 GPU 数量。设置为 -1 表示使用所有 GPU。例如,如果设置为 -1,且有 4 个可用 GPU,所有这些 GPU 都可用于单个模型的训练。目前仅适用于具有多个 GPU 或多个节点的图像自动管道构建插件或 dask 模型。如果 GPU 已禁用或系统上没有 GPU,则忽略此参数。对于 ImageAutoModel,取 num_gpus_per_model 和 num_gpus_per_experiment 的最大值(如果设置为 -1 则表示使用所有 GPU)。如需更多信息,请访问:https://github.com/NVIDIA/nvidia-docker/wiki/nvidia-docker#gpu-isolation。当使用 dask 时,在多节点环境下,此参数也被称为单节点值。
num_gpus_for_prediction¶
Num. of GPUs for isolated prediction/transform (Number)
默认值 0
当在 fit/fit_transform 以外运行时,模型预测和转换器转换需使用的 GPU 数量。-1 表示所有,0 表示无 GPU,>1 表示很多 gpu,达到可见限制。如果预测/转换在同一进程中被调用为 fit/fit_transform,则 GPU 数量将匹配,同时,新进程会将此计数用于适用模型/转换器的 GPU 数量。异常情况:如果 GPU 存在,Tensorflow、pytorch 模型/转换器和 RAPIDS 始终会依据 GPU 进行预测。RAPIDS 还会要求在 GPU 上使用 Python 评分包。当使用 dask 时,在多节点环境下,此参数被称为单节点值。
gpu_id_start¶
GPU starting ID (0..visible #GPUs - 1) (Number)
默认值 -1
从哪个 gpu_id 开始。-1:自动模式。例如,有 2 个实验,每个将 num_gpus_per_experiment 设置为 2,并使用 4 个 GPU。如果使用 CUDA_VISIBLE_DEVICES=… 控制 GPU(首选方法),gpu_id=0 在受限设备列表中排在第一。例如,如果 CUDA_VISIBLE_DEVICES=’4,5’,则 gpu_id_start=0 即表示 4 号设备。例如,要从专家模式中运行 2 个实验,每个实验都在 1 个 GPU 上运行(共有 2 个截然不同的 GPU):Experiment#1: num_gpus_per_model=1, num_gpus_per_experiment=1, gpu_id_start=0 Experiment#2: num_gpus_per_model=1, num_gpus_per_experiment=1, gpu_id_start=1 例如,要从专家模式中运行 2 个实验,每个实验都在一个截然不同的 GPU 上运行(共有 8 个 GPU):Experiment#1: num_gpus_per_model=1, num_gpus_per_experiment=4, gpu_id_start=0 Experiment#2: num_gpus_per_model=1, num_gpus_per_experiment=4, gpu_id_start=4 例如,情况如上,但现在在所有 4 个 GPU/模型上运行 Experiment#1: num_gpus_per_model=4, num_gpus_per_experiment=4, gpu_id_start=0 Experiment#2: num_gpus_per_model=4, num_gpus_per_experiment=4, gpu_id_start=4 如果 num_gpus_per_model!=1,则全局 GPU 锁定被禁用(因为底层算法不支持任意 gpu id,仅支持顺序 ID),因此必须确保正确设置此值以避免所有用户重复执行所有实验。如需更多信息,请访问:https://github.com/NVIDIA/nvidia-docker/wiki/nvidia-docker#gpu-isolation 请注意,选择 GPU 并不会导致封装,因此 gpu_id_start + num_gpus_per_model 必须小于可见 GPU 的数量
allow_reduce_features_when_failure¶
Whether to reduce features when model fails (String)
默认值 'auto'
是否减少特征直至模型不失败。目前在正常拟合或使用 Optuna 时适用于非 dask XGBoost 模型(即 GLMModel、XGBoostGBMModel、XGBoostDartModel、XGBoostRFModel)。主要适用于 GPU OOM。如果 XGBoost 耗尽 GPU 内存,将会检测出这一事件,并且(无论是否设置 skip_model_failures)我们可使用 XGBoost 对特征的子集执行特征选择,这样就会将数据集逐步减小到原来的 1/2,从而会有更多的模型来覆盖所有特征。此拆分一直持续到不再失败。之后,使用所有子模型通过绝对信息增益来估算变量重要性,以判断需要包括哪些特征。最终,将使用不会导致 OOM 发生的特征计数来构建具有最重要特征的单个模型。对于 ‘auto’,如果启用了可再现实验,此选项设置为 ‘off’,这是因为对于同一实验种子而言,运行 OOM 的条件会发生变化。在特征选择阶段中,只减少特征而不减少行。
reduce_repeats_when_failure¶
Number of repeats for models used for feature selection during failure recovery. (Number)
默认值 1
通过使用 allow_reduce_features_when_failure,此选项可控制子模型用于特征选择的次数。单次只会使子模型考虑特征的单个子集,而多次则会考虑更多的特征,从而有更大的机会重要的交互。次数越多,准确度越高。此选项的代价与重复次数成正比。
fraction_anchor_reduce_features_when_failure¶
Fraction of features treated as anchor for feature selection during failure recovery. (Float)
默认值 0.1
通过使用 allow_reduce_features_when_failure,此选项可控制充当锚点的特征比例,对于所有子模型,这些特征都固定。在每次重复时都将获得新的锚点。对于调优和演化,概率取决于其他个体的任何先验重要性(如果存在),而最终模型会对锚点特征使用统一的概率。
xgboost_reduce_on_errors_list¶
Errors from XGBoost that trigger reduction of features (List)
默认值 ['Memory allocation error on worker', 'out of memory', 'XGBDefaultDeviceAllocatorImpl', 'invalid configuration argument', 'Requested memory']
来自 XGBoost 的错误字符串,用于在减小的子模型上触发调整。请参见 allow_reduce_features_when_failure。
lightgbm_reduce_on_errors_list¶
Errors from LightGBM that trigger reduction of features (List)
默认值 ['Out of Host Memory']
来自 LightGBM 的错误字符串,用于在减小的子模型上触发调整。请参见 allow_reduce_features_when_failure。
num_gpus_per_hyperopt_dask¶
#GPUs/HyperOptDask (-1 = all) (Number)
默认值 -1
每个模型 hyperopt 训练任务要使用的 GPU 数量。设置为 -1 表示使用所有 GPU。例如,当此值设置为 -1 且有 4 个 GPU 可用时,所有 GPU 都可以用于单个模型在整个 Dask 聚类内的训练。如果 GPU 被禁用或系统上没有 GPU,则忽略此设置。在多节点上下文中,此设置表示每个节点的值。
detailed_traces¶
Enable detailed traces (Boolean)
默认值 False
是否启用详细跟踪(在 GUI 跟踪中)
debug_log¶
Enable debug log level (Boolean)
默认值 False
是否启用调试日志级别(在日志文件中)
log_system_info_per_experiment¶
Enable logging of system information for each experiment (Boolean)
默认值 True
是否在每个实验日志启动时添加系统信息的记录,例如 CPU、GPU、磁盘空间。系统日志中已记录这些信息。
enable_projects¶
Enable Projects workspace (Boolean)
默认值 True
启用项目工作空间(alpha 版本,用于评估)
enable_license_manager¶
enable_license_manager (Boolean)
默认值 False
切换 Driverless AI 以使用 H2O.ai 许可证管理服务器管理使用软件的许可证/权限
license_manager_address¶
license_manager_address (String)
默认值 'http://127.0.0.1:9999'
与 H2O.ai 许可证管理服务器通信的地址。需要上述值,且 enable_license_manager 设置为 True。格式:{http/https}://{ip 地址}:{端口号}
license_manager_project_name¶
license_manager_project_name (String)
默认值 'default'
Driverless AI 试图从中检索租约的许可证管理项目的名称。注意:需要许可证管理器服务器中有已激活的许可证方可正常工作
license_manager_lease_duration¶
license_manager_lease_duration (Number)
默认值 3600000
如果使用的是 H2O.ai 许可证管理服务器,在租约需要续签之前,用户的租期预计将持续的毫秒数。
默认:3600000(1 小时)= 1 小时 * 60 分钟 / 小时 * 60 秒 / 分钟 * 1000 毫秒 / 秒
license_manager_worker_lease_duration¶
license_manager_worker_lease_duration (Number)
默认值 21600000
如果使用的是 H2O.ai 许可证管理服务器,在租约需要续签之前,Driverless AI 工作节点的租期预计将持续的毫秒数。默认:21600000(6 小时)= 6 小时 * 60 分钟 / 小时 * 60 秒 / 分钟 * 1000 毫秒 / 秒
license_manager_ssl_certs¶
license_manager_ssl_certs (String)
默认值 'true'
仅当许可证管理器服务器以 HTTPS 启动时使用。接受布尔值:true/false,或文件/目录的路径。指示在向许可证管理器服务器发出请求时是否尝试 SSL 证书验证。True:尝试 SSL 证书验证,如果证书是自签名的,尝试将失败 False:跳过 ssl 证书验证。/path/to/cert/directory:在目录中加载证书 <cert.pem>,并使用它们进行证书验证。行为方式与 python 请求包相同:https://requests.readthedocs.io/en/latest/user/advanced/#ssl-cert-verification
license_manager_worker_startup_timeout¶
license_manager_worker_startup_timeout (Number)
默认值 3600000
Driverless AI 工作节点在超时前不断重试启动,并从许可证管理器获得租约的时间。超时将导致工作节点启动失败。
license_manager_dry_run_token¶
license_manager_dry_run_token (String)
默认值 ''
即使与许可证管理器服务器通信或从许可证管理器服务器获取租约出现问题,仍可允许 Driverless AI 运行的紧急设置。
这是编码字符串,可从许可证管理器 ui 或许可证管理器服务器的日志中获得。
dask_cuda_cluster_kwargs¶
Set dask CUDA/RAPIDS cluster settings for single node workers. (Dict)
默认值 {'scheduler_port': 0, 'dashboard_address': ':0', 'protocol': 'tcp'}
设置单节点工作节点的 dask CUDA/RAPIDS 聚类设置。可设置其他环境变量,请参阅 https://dask-cuda.readthedocs.io/en/latest/ucx.html#dask-scheduler 例如,对于 ucx,使用:{} dict version of: dict(n_workers=None, threads_per_worker=1, processes=True, memory_limit=’auto’, device_memory_limit=None, CUDA_VISIBLE_DEVICES=None, data=None, local_directory=None, protocol=’ucx’, enable_tcp_over_ucx=True, enable_infiniband=False, enable_nvlink=False, enable_rdmacm=False, ucx_net_devices=’auto’, rmm_pool_size=’1GB’) WARNING: Do not add arguments like {’n_workers’: 1, ‘processes’: True, ‘threads_per_worker’: 1} 这会导入挂起,cuda 聚类自己处理此问题。
dask_cluster_kwargs¶
Set dask cluster settings for single node workers. (Dict)
默认值 {'n_workers': 1, 'processes': True, 'threads_per_worker': 1, 'scheduler_port': 0, 'dashboard_address': ':0', 'protocol': 'tcp'}
设置单节点工作节点的 dask 聚类设置。
enable_dask_cluster¶
Enable dask scheduler and worker on singlenode/multinode setup (Boolean)
默认值 True
是否启用 dask 调度器 DAI 服务器节点以及 DAI 工作节点上的 dask 工作节点。
start_dask_worker¶
Start dask workers for given multinode worker (Boolean)
默认值 True
是否启动此多节点工作节点上的 dask 工作节点。
dask_scheduler_env¶
Set dask scheduler env. (Dict)
默认值 {}
设置 dask 调度器环境。请参阅 https://docs.dask.org/en/latest/setup/cli.html
dask_cuda_scheduler_env¶
Set dask cuda scheduler env. (Dict)
默认值 {}
设置 dask 调度器环境。请参阅 https://docs.dask.org/en/latest/setup/cli.html
dask_scheduler_options¶
Set dask scheduler command-line options. (String)
默认值 ''
设置 dask 调度器选项。请参阅 https://docs.dask.org/en/latest/setup/cli.html
dask_cuda_scheduler_options¶
Set dask cuda scheduler command-line options. (String)
默认值 ''
设置 dask cuda 选项。请参阅 https://docs.dask.org/en/latest/setup/cli.html
dask_worker_env¶
Set dask worker environment variables. NCCL_SOCKET_IFNAME is automatically set, but can be overridden here. (Dict)
默认值 {'NCCL_P2P_DISABLE': '1', 'NCCL_DEBUG': 'WARN'}
设置 dask 工作节点环境。请参阅 https://docs.dask.org/en/latest/setup/cli.html
dask_worker_options¶
Set dask worker command-line options. (String)
默认值 '--memory-limit 0.95'
设置 dask 工作节点选项。请参阅 https://docs.dask.org/en/latest/setup/cli.html
dask_cuda_worker_options¶
Set dask cuda worker options. (String)
默认值 '--memory-limit 0.95'
设置 dask cuda 工作节点选项。类似选项有 dask_cuda_cluster_kwargs。请参阅 https://dask-cuda.readthedocs.io/en/latest/ucx.html#launching-scheduler-workers-and-clients-separately 可设置 “–rmm-pool-size 1GB” 以向 RMM 提供 1GB,提高效率和速度
dask_cuda_worker_env¶
Set dask cuda worker environment variables. (Dict)
dask_protocol¶
Protocol using for dask communications. (String)
默认值 'tcp'
请参阅 https://docs.dask.org/en/latest/setup/cli.html 例如,ucx 最优,而 tcp 最可靠
dask_server_port¶
Port using by server for dask communications. (Number)
默认值 8786
dask_dashboard_port¶
Dask dashboard port for dask diagnostics. (Number)
默认值 8787
dask_cuda_protocol¶
Protocol using for dask cuda communications. (String)
默认值 'tcp'
请参阅 https://docs.dask.org/en/latest/setup/cli.html 例如,ucx 最优,而 tcp 最可靠
dask_cuda_server_port¶
Port using by server for dask cuda communications. (Number)
默认值 8790
请参阅 https://docs.dask.org/en/latest/setup/cli.html 端口 + 1 用于 dask 仪表板
dask_cuda_dashboard_port¶
Dask dashboard port for dask_cuda diagnostics. (Number)
默认值 8791
dask_server_ip¶
IP address using by server for dask and dask cuda communications. (String)
默认值 ''
若是空字符串,自动检测能联网的 IP。如果使用 worker_mode=multinode,则必须设置此选项。
dask_worker_nprocs¶
Number of processes per dask worker. (Number)
默认值 1
每个 dask(不是 cuda-GPU)工作节点的进程数。如果设置为 -1,则使用 dask 默认的 cpu 数 + 1 + nprocs。如果设置为 -2,则使用 DAI 默认的物理核心总数。推荐用于重型特征工程。如果设置为 1,则假设任务大多是多线程的,并且每个任务都可以使用整个节点。推荐用于重型多节点模型训练。仅适用于 dask(不是 dask_cuda)工作节点
dask_worker_nthreads¶
Number of threads per process for dask. (Number)
默认值 1
Dask 工作节点的每个进程的线程数
dask_cuda_worker_nthreads¶
Number of threads per process for dask_cuda. (Number)
默认值 -2
Dask_cuda 工作节点的每个进程的线程数。如果设置为 -2,每个 GPU 使用 DAI 默认的物理核心,因为必须仅有一个工作节点/GPU。
lightgbm_listen_port¶
LightGBM local listen port when using dask with lightgbm (Number)
默认值 12400
worker_mode¶
worker_mode (String)
默认值 'singlenode'
- 如何安排长时间运行的任务。
Multiprocessing:立即叉起当前进程。singlenode:通过 redis 共享任务,需要一个工作节点运行。multinode:与 singlenode 一样,只是还要通过 minio 共享数据,
并允许工作节点在不同机器上运行。
redis_ip¶
redis_ip (String)
默认值 '127.0.0.1'
Redis 设置
redis_port¶
redis_port (Number)
默认值 6379
Redis 设置
redis_db¶
redis_db (Number)
默认值 0
Redis 数据库。在 Redis 服务器上运行的每个 DAI 实例应具有唯一的整数。
main_server_redis_password¶
main_server_redis_password (String)
默认值 'PlWUjvEJSiWu9j0aopOyL5KwqnrKtyWVoZHunqxr'
Redis 密码。将在主服务器启动时随机生成,默认情况会显示在配置文件且未被注释。如果在每个系统中运行多个 DriverlessAI 实例,确保每个实例都连接到自己的 redis 队列。
redis_encrypt_config¶
redis_encrypt_config (Boolean)
默认值 False
If set to true, the config will get encrypted before it gets saved into the Redis database.
local_minio_port¶
local_minio_port (Number)
默认值 9001
Minio 会侦听的端口。只有在当前系统为多节点主服务器时,此设置才会生效。
main_server_minio_address¶
main_server_minio_address (String)
默认值 '127.0.0.1:9001'
主服务器的 minio 服务器的位置。
main_server_minio_access_key_id¶
main_server_minio_access_key_id (String)
默认值 'GMCSE2K2T3RV6YEHJUYW'
主服务器的 Minio 服务器访问密钥。
main_server_minio_secret_access_key¶
main_server_minio_secret_access_key (String)
默认值 'JFxmXvE/W1AaqwgyPxAUFsJZRnDWUaeQciZJUe9H'
主服务器的 Minio 服务器私密访问密钥。
main_server_minio_bucket¶
main_server_minio_bucket (String)
默认值 'h2oai'
用于文件同步的 minio 存储桶的名称。
worker_local_processors¶
worker_local_processors (Number)
默认值 32
一次可处理的最大本地任务数量。
worker_priority_queues_processors¶
worker_priority_queues_processors (Number)
默认值 4
3 个优先级队列的并发限制
worker_priority_queues_time_check¶
worker_priority_queues_time_check (Number)
默认值 30
计划任务优先级上升之前的超时时间
worker_remote_processors¶
worker_remote_processors (Number)
默认值 2
一次可处理的最大远程任务数量
worker_remote_processors_max_threads_reduction_factor¶
worker_remote_processors_max_threads_reduction_factor (Float)
默认值 0.7
如果 worker_remote_processors >= 2,每个任务减少线程的因子,用于数据表、lightgbm、xgboost 等数据包。
redis_result_queue_polling_interval¶
redis_result_queue_polling_interval (Number)
默认值 100
服务器应从 redis 队列中提取结果的频率(单位为毫秒)。
main_server_minio_bucket_ping_timeout¶
main_server_minio_bucket_ping_timeout (Number)
默认值 30
主服务器 minio 存储桶失败之前,工作节点应等待的秒数
worker_start_timeout¶
worker_start_timeout (Number)
默认值 30
工作节点在 redis db 初始化时应该等待的时间(单位为秒)。
worker_no_main_server_wait_time¶
worker_no_main_server_wait_time (Number)
默认值 1800
worker_no_main_server_wait_time_with_hard_assert¶
worker_no_main_server_wait_time_with_hard_assert (Number)
默认值 30
worker_healthy_response_period¶
worker_healthy_response_period (Number)
默认值 300
工作节点不应响应被标记为不健康的秒数。
expose_server_version¶
expose_server_version (Boolean)
默认值 True
若启用,公开 DriverlessAI 基础版本。
enable_https¶
enable_https (Boolean)
默认值 False
https 设置
您可以使用以下命令创建自签名证书以进行测试:
sudo openssl req -x509 -newkey rsa:4096 -keyout private_key.pem -out cert.pem -days 3650 -nodes -subj ‘/O=Driverless AI’ sudo chown dai:dai cert.pem private_key.pem sudo chmod 600 cert.pem private_key.pem sudo mv cert.pem private_key.pem /etc/dai
ssl_key_file¶
ssl_key_file (String)
默认值 '/etc/dai/private_key.pem'
https 设置
您可以使用以下命令创建自签名证书以进行测试:
sudo openssl req -x509 -newkey rsa:4096 -keyout private_key.pem -out cert.pem -days 3650 -nodes -subj ‘/O=Driverless AI’ sudo chown dai:dai cert.pem private_key.pem sudo chmod 600 cert.pem private_key.pem sudo mv cert.pem private_key.pem /etc/dai
ssl_crt_file¶
ssl_crt_file (String)
默认值 '/etc/dai/cert.pem'
https 设置
您可以使用以下命令创建自签名证书以进行测试:
sudo openssl req -x509 -newkey rsa:4096 -keyout private_key.pem -out cert.pem -days 3650 -nodes -subj ‘/O=Driverless AI’ sudo chown dai:dai cert.pem private_key.pem sudo chmod 600 cert.pem private_key.pem sudo mv cert.pem private_key.pem /etc/dai
ssl_no_sslv2¶
ssl_no_sslv2 (Boolean)
默认值 True
SSL TLS
ssl_no_sslv3¶
ssl_no_sslv3 (Boolean)
默认值 True
SSL TLS
ssl_no_tlsv1¶
ssl_no_tlsv1 (Boolean)
默认值 True
SSL TLS
ssl_no_tlsv1_1¶
ssl_no_tlsv1_1 (Boolean)
默认值 True
SSL TLS
ssl_no_tlsv1_2¶
ssl_no_tlsv1_2 (Boolean)
默认值 False
SSL TLS
ssl_no_tlsv1_3¶
ssl_no_tlsv1_3 (Boolean)
默认值 False
SSL TLS
ssl_client_verify_mode¶
ssl_client_verify_mode (String)
默认值 'CERT_NONE'
https 设置
设置客户端验证模式。
- CERT_NONE:客户端无需提供证书,如果提供了,则将
忽略所有验证错误。
- CERT_OPTIONAL:客户端无需提供证书,如果提供了,则将
根据设置 CA 链验证证书。
- CERT_REQUIRED:客户端需要提供证书,证书将被验证。
选择此模式后,您将需要设置 ‘ssl_client_key_file’ 和 ‘ssl_client_crt_file’,以便 Driverless 能够验证其自己的回调请求。
ssl_ca_file¶
ssl_ca_file (String)
默认值 ''
https 设置
Certification Authority 证书文件的路径。启用客户端身份验证后,将使用此证书来验证客户端证书。
若未设置此选项,将使用默认系统证书验证客户端。
ssl_client_key_file¶
ssl_client_key_file (String)
默认值 ''
https 设置
设置 CERT_REQUIRED 模式后,Driverless 将用于验证其自身的私钥的路径。
ssl_client_crt_file¶
ssl_client_crt_file (String)
默认值 ''
https 设置
设置 CERT_REQUIRED 模式后,Driverless 将用于验证其自身的客户端证书的路径。
enable_xsrf_protection¶
Enable XSRF Webserver protection (Boolean)
默认值 True
启用后,web 服务器将提供 xsrf cookie 并在每次收到 POST 请求时验证其有效性
enable_secure_cookies¶
Enable secure flag on HTTP cookies (Boolean)
默认值 False
verify_session_ip¶
When enabled, webserver verifies session and request IP address (Boolean)
默认值 False
启用后,每次通过身份验证的访问都会进行验证,比较会话发起者的 IP 地址和当前请求的 IP 地址
custom_recipe_security_analysis_enabled¶
custom_recipe_security_analysis_enabled (Boolean)
默认值 False
启用自定义插件中禁用/危险构造的自动检测
custom_recipe_import_allowlist¶
custom_recipe_import_allowlist (List)
默认值 []
可以在自定义插件中导入的模块列表。默认空列表表示允许除禁止清单中的模块之外的所有模块
custom_recipe_import_banlist¶
custom_recipe_import_banlist (List)
默认值 ['shlex', 'plumbum', 'pexpect', 'envoy', 'commands', 'fabric', 'subprocess', 'os.system', 'system']
无法在自定义插件中导入的模块列表
custom_recipe_method_call_allowlist¶
custom_recipe_method_call_allowlist (List)
默认值 []
- 自定义插件中允许的调用的正则表达式模式列表。
空列表意味着全部允许(除了禁止清单)。例如允许清单里只有 os.path.*,自定义插件仅可从 os.path 模块和内置模块中调用方法
custom_recipe_method_call_banlist¶
custom_recipe_method_call_banlist (List)
默认值 ['os\\.system', 'socket\\..*', 'subprocess.*', 'os.spawn.*']
- 自定义插件中需要拒绝的调用的正则表达式模式列表。
例如,如果 os.system 在禁止清单中,自定义插件无法调用 os.system() 。如果 socket.* 在禁止清单中,插件无法调用插槽模块(例如 socket.socket() 或任何 socket.a.b.c() )的任何方法
custom_recipe_dangerous_patterns¶
custom_recipe_dangerous_patterns (List)
默认值 ['rm -rf', 'rm -fr']
- 表示可能对整个系统有害并应该从代码中禁止的
危险序列/结构的正则表达式模式列表
allow_concurrent_sessions¶
Enable concurrent session for same user (Boolean)
默认值 True
启用后,用户可以同时从 2 个浏览器(脚本)登录。
extra_http_headers¶
extra_http_headers (Dict)
默认值 {}
额外 HTTP 头。
h2o_storage_address¶
h2o_storage_address (String)
默认值 ''
H2O 存储端点的地址。留空,以仅使用本地存储。
h2o_storage_projects_enabled¶
h2o_storage_projects_enabled (Boolean)
默认值 False
是否使用存储在 H2O Storage 中的远程项目,而非本地项目。
h2o_storage_tls_enabled¶
h2o_storage_tls_enabled (Boolean)
默认值 True
是否应对存储频道加密。
h2o_storage_tls_ca_path¶
h2o_storage_tls_ca_path (String)
默认值 ''
用于检查 H2O Storage 服务器身份的发证机构证书的路径。
h2o_storage_tls_cert_path¶
h2o_storage_tls_cert_path (String)
默认值 ''
使用 H2O Storage 服务器进行身份认证的客户端证书的路径
h2o_storage_tls_key_path¶
h2o_storage_tls_key_path (String)
默认值 ''
使用 H2O Storage 服务器进行身份认证的客户端密钥的路径
h2o_storage_internal_default_project_id¶
h2o_storage_internal_default_project_id (String)
默认值 ''
要使用的存储项目的 UUID,而非远程 HOME 文件夹。
h2o_storage_rpc_deadline_seconds¶
h2o_storage_rpc_deadline_seconds (Number)
默认值 60
使用 H2O Storage 进行 RPC 调用的最后期限(单位为秒)。设置在取消 RPC 调用之前,Driverless 等待 RPC 调用完成的最大秒数。
h2o_storage_rpc_bytestream_deadline_seconds¶
h2o_storage_rpc_bytestream_deadline_seconds (Number)
默认值 7200
使用 H2O Storage 进行 RPC 比特流调用的最后期限(单位为秒)。设置在取消 RPC 调用之前,Driverless 等待 RPC 调用完成的最大秒数。此值用于上传和下载工件。
h2o_storage_oauth2_scopes¶
h2o_storage_oauth2_scopes (String)
默认值 ''
存储客户端管理其自己的访问令牌,这些令牌派生自用户登录时收到的刷新令牌。设置此选项后,请求具有此处定义的作用域的访问令牌。(用空格分隔的列表)
h2o_storage_message_size_limit¶
h2o_storage_message_size_limit (Number)
默认值 1048576000
RPC 请求的最大消息大小(单位为字节)。大于此限值的请求将失败。
keystore_file¶
keystore_file (String)
默认值 ''
Keystore file that contains secure config.toml items like passwords, secret keys etc. Keystore is managed by h2oai.keystore tool.
log_level¶
log_level (Number)
默认值 1
- 记录的详细级别
0:简单 (CRITICAL, ERROR, WARNING) 1:默认 (CRITICAL, ERROR, WARNING, INFO, DATA) 2:详细 (CRITICAL, ERROR, WARNING, INFO, DATA, DEBUG) 影响服务器和所有实验
collect_server_logs_in_experiment_logs¶
collect_server_logs_in_experiment_logs (Boolean)
默认值 False
是否收集服务器相关日志(h2oai_server.log、systemctl 或 docker 中的 dai.log,以及 h2o log)将日志发送至 H2O.ai 时适用
per_user_directories¶
per_user_directories (Boolean)
默认值 True
是否将每个用户的所有用户内容隔离到一个目录中。若设置为 False,则所有用户内容都共用单个目录,插件共享,用于重启/重新拟合的大脑文件夹共享。若设置为 True,则每个用户都有用于所有用户任务的单独文件夹,各个用户的插件都是隔离的,而用于重启/重新拟合的大脑文件夹仅适用于特定用户。对于 GUI 或 Python Client 可访问的所有实验内容、所有插件,允许从 False 迁移到 True 或返回 False,并可使用相同设置启动实验,重启或重新拟合。但如果切换到逐用户模式,则不再使用共用的大脑文件夹。
data_import_ignore_file_names¶
data_import_ignore_file_names (List)
默认值 ['_SUCCESS']
数据集导入期间要忽略的文件名列表。DAI 创建数据集时,将跳过所有使用上述名称的文件。例如,目录包含 3 个文件:[data_1.csv, data_2.csv, _SUCCESS] DAI 将仅尝试使用 data_1.csv 和 data_2.csv 文件创建数据集,_SUCCESS 文件将被忽略。默认忽略 _SUCCESS 文件,这些文件通常是在从 Hadoop 导出数据时创建的
data_import_explode_list_type_columns_in_parquet¶
data_import_explode_list_type_columns_in_parquet (Boolean)
默认值 False
若设置为 true,则将在导入 parquet 文件时,展开带列表数据类型的列。
files_without_extensions_expected_types¶
files_without_extensions_expected_types (List)
默认值 ['parquet', 'orc']
如果文件名中不存在文件扩展名,Driverless AI 应该尝试将数据导入为的文件类型的列表。如未提供文件扩展名,Driverless AI 将尝试从已定义列表中的第一种类型开始导入数据。默认 [“parquet”, “orc”] 示例: ‘test.csv’ (文件扩展名存在)vs ‘test’ (文件扩展名不存在)
注意:有关支持的文件类型的更多详情,请参阅 supported_file_types 配置选项
do_not_log_list¶
do_not_log_list (List)
Default value ['cols_to_drop', 'cols_to_drop_sanitized', 'cols_to_group_by', 'cols_to_group_by_sanitized', 'cols_to_force_in', 'cols_to_force_in_sanitized', 'do_not_log_list', 'do_not_store_list', 'pytorch_nlp_pretrained_s3_access_key_id', 'pytorch_nlp_pretrained_s3_secret_access_key']
do_not_log_list:在此处添加您不希望记录在日志中的配置。它们仍将存储在实验信息中,以便子实验表现一致。
do_not_store_list¶
do_not_store_list (List)
默认值 ['artifacts_git_password', 'auth_jwt_secret', 'auth_openid_client_id', 'auth_openid_client_secret', 'auth_openid_userinfo_auth_key', 'auth_openid_userinfo_auth_value', 'auth_openid_userinfo_username_key', 'auth_tls_ldap_bind_password', 'aws_access_key_id', 'aws_secret_access_key', 'azure_blob_account_key', 'azure_blob_account_name', 'azure_connection_string', 'deployment_aws_access_key_id', 'deployment_aws_secret_access_key', 'gcs_path_to_service_account_json', 'kaggle_key', 'kaggle_username', 'kdb_password', 'kdb_user', 'ldap_bind_password', 'ldap_search_password', 'local_htpasswd_file', 'main_server_minio_access_key_id', 'main_server_minio_secret_access_key', 'main_server_redis_password', 'minio_access_key_id', 'minio_endpoint_url', 'minio_secret_access_key', 'snowflake_account', 'snowflake_password', 'snowflake_url', 'snowflake_user', 'custom_recipe_security_analysis_enabled', 'custom_recipe_import_allowlist', 'custom_recipe_import_banlist', 'custom_recipe_method_call_allowlist', 'custom_recipe_method_call_banlist', 'custom_recipe_dangerous_patterns', 'azure_ad_client_secret', 'azure_blob_keycloak_aad_client_secret', 'artifacts_azure_blob_account_name', 'artifacts_azure_blob_account_key', 'artifacts_azure_connection_string', 'tensorflow_nlp_pretrained_s3_access_key_id', 'tensorflow_nlp_pretrained_s3_secret_access_key']
do_not_store_list:在此处添加您不希望存储的配置。此设置不会被其他实验记住,因此不适用于可由用户控制的数据科学相关项目。这些项目不会自动记录。
datatable_separator¶
datatable_separator (String)
默认值 ''
在解析诸如 CSV 之类的表格文本文件时使用定界符/分隔符。如果为空,则表示是自动的。必须在系统启动时提供。
ping_load_data_file¶
Whether to enable ping of system status during DAI data ingestion. (Boolean)
默认值 False
是否在摄取 DAI 数据时启用系统状态的 ping 功能。
ping_sleep_period¶
ping_sleep_period (Float)
默认值 0.1
检查 DAI 状态的间隔时间。应足够小,以免减慢能停止 ping 进程的父项。
data_precision¶
data_precision (String)
默认值 'float32'
数据存储方式的精度 ‘datatable’ 将保留原始数据表存储类型(即 bool、int、float32、float64)(实验性)’float32’ 针对速度,’float64’ 针对准确性或非常大的输入值,”datatable” 针对内存,’float32’ 允许高达约 +-3E38 的数字,相对误差约为 1E-7,’float64’ 允许高达约 +-1E308 的数字,相对误差约为 1E-16。有些计算,比如 GLM 标准化,仅可处理最高为这些数据值最大值的 sqrt(),因此在标准化生成 inf 值之前,32 位精度的 GLM 仅可处理最高约 1E19 的值。若看到 “最佳个体的分数无效”,您可能需要更高的精度。
transformer_precision¶
transformer_precision (String)
默认值 'float32'
大多数数据转换器的精度(与 data_precision 相同的选项和说明)。适用于会产生大量操作并可能累积误差的转换器,可为其提高精度。如果想要转换器加快处理速度,但又想要高精度存储数据,此选项也有用。
ulimit_up_to_hard_limit¶
ulimit_up_to_hard_limit (Boolean)
默认值 True
是否将 ulimit 软限制更改为硬限制(对于 DAI 服务器应用程序,它不是一个通用的用户应用程序)。在某些情况下避免资源限制问题。对于这些资源,限制为不超过 limit_nofile 和 limit_nproc。
disable_core_files¶
Whether to disable core files if debug_log=true. If debug_log=false, core file creation is always disabled. (Boolean)
默认值 False
limit_nofile¶
limit_nofile (Number)
默认值 65535
以下文件数量限制应与 start-dai.sh 一致
limit_nproc¶
limit_nproc (Number)
默认值 16384
以下线程数量限制应与 start-dai.sh 一致
produce_correlation_heatmap¶
produce_correlation_heatmap (Boolean)
默认值 False
是否将相关性 Heatmap 转储到磁盘
high_correlation_value_to_report¶
Threshold for reporting high correlation (Float)
默认值 0.95
用于报告原始特征之间的高相关性的值
restart_experiments_after_shutdown¶
restart_experiments_after_shutdown (Boolean)
默认值 False
If True, experiments aborted by server restart will automatically restart and continue upon user login
datatable_bom_csv¶
datatable_bom_csv (Boolean)
默认值 False
写入 CSV 文件时包括字节顺序标记 (BOM)。必须设置以在 Excel 中支持 UTF-8 编码。
return_before_final_model¶
return_before_final_model (Boolean)
默认值 False
check_invalid_config_toml_keys¶
check_invalid_config_toml_keys (Boolean)
默认值 True
是否检查 config.toml 键的有效性,如果无效则失败
predict_safe_trials¶
predict_safe_trials (Number)
默认值 2
fit_safe_trials¶
fit_safe_trials (Number)
默认值 2
enable_preview_time_estimate¶
enable_preview_time_estimate (Boolean)
默认值 True
enable_preview_mojo_size_estimate¶
enable_preview_mojo_size_estimate (Boolean)
默认值 True
enable_preview_time_estimate_rough¶
enable_preview_time_estimate_rough (Boolean)
默认值 False
allow_no_pid_host¶
Whether to allow no –pid=host setting. Some GPU info from within docker will not be correct. (Boolean)
默认值 True
per_transformer_segfault_protection_ga¶
Whether to have per-transformer segfault protection when munging data into transformed features during tuning and evolution. Can lead to significant slowdown for cases when large data but data is sampled, leaving large objects in parent fork, leading to slow fork time for each transformer. (Boolean)
默认值 False
per_transformer_segfault_protection_final¶
Whether to have per-transformer segfault protection when munging data into transformed features during final model fitting and scoring. Can lead to significant slowdown for cases when large data but data is sampled, leaving large objects in parent fork, leading to slow fork time for each transformer. (Boolean)
默认值 False
submit_resource_wait_period¶
submit_resource_wait_period (Number)
默认值 10
资源(磁盘、内存、cpu)的检查频率,看是否需要暂缓提交。
stall_subprocess_submission_cpu_threshold_pct¶
stall_subprocess_submission_cpu_threshold_pct (Number)
默认值 100
如果系统 CPU 使用率高于此百分比阈值(设置为 100 以禁用),则暂缓提交子进程。如果激活,合理的数值是 90.0
stall_subprocess_submission_dai_fork_threshold_pct¶
stall_subprocess_submission_dai_fork_threshold_pct (Float)
默认值 -1.0
如果每个单位 ulimit nproc 软限制的 DAI 分叉计数(在所有实验中)高于这个百分比阈值,则限制/暂缓提交子进程(设置为 -1 表示禁用,0 表示最小分叉)。如果激活,合理的数值是 90.0
stall_subprocess_submission_experiment_fork_threshold_pct¶
stall_subprocess_submission_experiment_fork_threshold_pct (Float)
默认值 -1.0
如果每个单位 ulimit nproc 软限制的实验分叉计数(跨所有实验)高于这个百分比阈值,则限制/暂缓提交子进程(设置为 -1 表示禁用,0 表示最小分叉)。如果激活,合理的数值是 90.0。对于小数据,因检查而提交的每个任务大约需要 0.1 秒的开销,因此评分会降低测试速度。
restrict_initpool_by_memory¶
restrict_initpool_by_memory (Boolean)
默认值 True
是否通过减少可用的池工作节点的数量来限制池工作节点(即使没有使用)。若实验数量确实庞大,可使用此设置,否则,最好准备好所有池工作节点,并且仅暂缓提交任务,以便能够灵活应对多实验环境
scoring_data_directory¶
scoring_data_directory (String)
默认值 'tmp'
用于对相对于运行路径的目录路径进行评分的路径
num_models_for_resume_graph¶
num_models_for_resume_graph (Number)
默认值 1000
last_exclusive_mode¶
last_exclusive_mode (String)
默认值 ''
内部帮助程序,允许存储更改独占模式后的配置
mojo_acceptance_test_errors_fatal¶
mojo_acceptance_test_errors_fatal (Boolean)
默认值 True
mojo_acceptance_test_errors_shap_fatal¶
mojo_acceptance_test_errors_shap_fatal (Boolean)
默认值 True
mojo_acceptance_test_orig_shap¶
mojo_acceptance_test_orig_shap (Boolean)
默认值 True
enable_single_instance_db_access¶
enable_single_instance_db_access (Boolean)
默认值 True
若设置为 true,则将确保仅当前实例可以访问其数据库
enable_pytorch_nlp¶
enable_pytorch_nlp (String)
默认值 'auto'
Deprecated - 映射到 1.10.2+ 中的 enable_pytorch_nlp_transformer 和 enable_pytorch_nlp_model
procsy_ip¶
procsy_ip (String)
默认值 '127.0.0.1'
Procsy 进程的 IP 地址和端口。
procsy_port¶
procsy_port (Number)
默认值 12347
Procsy 进程的 IP 地址和端口。
h2o_ip¶
h2o_ip (String)
默认值 '127.0.0.1'
MLI 使用的 IP 地址。
h2o_port¶
h2o_port (Number)
默认值 12348
MLI 使用的 H2O 实例端口。每个 H2O 节点都有一个内部端口(web 端口+1,默认为 12349 端口),用于内部节点间通信
ip¶
ip (String)
默认值 '127.0.0.1'
Driverless AI HTTP 服务器的 IP 地址和端口。
port¶
port (Number)
默认值 12345
Driverless AI HTTP 服务器的 IP 地址和端口。
port_range¶
port_range (List)
默认值 []
两个整数组成的列表,指示要搜索的端口范围,并动态查找要绑定至的开放端口(例如 [11111,20000])。
strict_version_check¶
strict_version_check (Boolean)
默认值 True
DAI 的严格的版本检查
max_file_upload_size¶
max_file_upload_size (Number)
默认值 104857600000
文件上传限制(默认为 100GB)
data_directory¶
data_directory (String)
默认值 './tmp'
- 数据目录。所有应用程序数据和文件相关数据集和实验
都存储在此目录下。
data_connectors_logs_directory¶
data_connectors_logs_directory (String)
默认值 './tmp'
HDFS、Hive、JDBC 和 KDB+ 数据连接器的日志存放目录的路径。
mapr_tickets_directory¶
mapr_tickets_directory (String)
默认值 './tmp/mapr-tickets'
启用 MapR 多用户模式时,用于保存 MapR 票据的目录路径。仅当 enable_mapr_multi_user_mode 设置为 true 时才有效。
remove_temp_files_server_start¶
remove_temp_files_server_start (Boolean)
默认值 False
是否运行整个数据目录并删除所有临时文件。若实验次数过多(远大于 100 次),会导致启动变慢。
remove_temp_files_aborted_experiments¶
remove_temp_files_aborted_experiments (Boolean)
默认值 True
实验中止/取消之后是否删除临时文件。
usage_stats_opt_in¶
usage_stats_opt_in (Boolean)
默认值 True
是否选择使用统计数据和错误报告
core_site_xml_path¶
core_site_xml_path (String)
默认值 ''
HDFS 数据源路径 hdfs coresite.xml core_site_xml_path 配置已弃用,请使用 hdfs_config_path
hdfs_config_path¶
hdfs_config_path (String)
默认值 ''
(必要)HDFS 配置文件夹路径。可以包含多个配置文件。
key_tab_path¶
key_tab_path (String)
默认值 ''
主密钥表文件的路径。当 hdfs_auth_type=’principal’ 时必须设置。key_tab_path 已弃用,请使用 hdfs_keytab_path
hdfs_keytab_path¶
hdfs_keytab_path (String)
默认值 ''
主密钥表文件路径。当 hdfs_auth_type=’principal’ 时必须设置。
preview_cache_upon_server_exit¶
preview_cache_upon_server_exit (Boolean)
默认值 True
是否在服务器退出时删除预览缓存
enable_health_api¶
Enable Health API (Boolean)
默认值 True
启用时,服务器在 /apis/health/v1 公开 Health API,提供系统概述和利用率统计信息
listeners_inherit_env_variables¶
listeners_inherit_env_variables (Boolean)
默认值 False
When enabled, the notification scripts will inherit the parent’s process (DriverlessAI) environment variables.
listeners_experiment_start¶
listeners_experiment_start (String)
默认值 ''
通知脚本 - 变量指向在实验生命周期中给定事件执行的脚本的位置 - 脚本应启用可执行标志 - 建议使用绝对路径
实验开始时通知脚本位置
listeners_experiment_done¶
listeners_experiment_done (String)
默认值 ''
实验完成时通知脚本位置
listeners_mojo_done¶
listeners_mojo_done (String)
默认值 ''
实验的 MOJO 管道构建完成后触发的通知脚本。此值应是可执行脚本的绝对路径。
listeners_autodoc_done¶
listeners_autodoc_done (String)
默认值 ''
实验的 AutoDoc 渲染完成后触发的通知脚本。此值应是可执行脚本的绝对路径。
listeners_scoring_pipeline_done¶
listeners_scoring_pipeline_done (String)
默认值 ''
实验的 Python Scoring Pipeline 构建完成后触发的通知脚本。此值应是可执行脚本的绝对路径。
listeners_experiment_artifacts_done¶
listeners_experiment_artifacts_done (String)
默认值 ''
当实验及其在实验开始时选择的所有工件完成构建时触发通知脚本。此值应是可执行脚本的绝对路径。
enable_quick_benchmark¶
enable_quick_benchmark (Boolean)
默认值 True
是否在应用程序启动时运行快速性能基准测试
enable_extended_benchmark¶
enable_extended_benchmark (Boolean)
默认值 False
是否在应用程序启动时运行扩展性能基准测试
extended_benchmark_scale_num_rows¶
extended_benchmark_scale_num_rows (Float)
默认值 0.1
扩展性能基准测试的行数的缩放因子。对于严格的性能基准测试,建议值为 1 或以上。
extended_benchmark_num_cols¶
extended_benchmark_num_cols (Number)
默认值 20
用于扩展性能基准测试的列数。
benchmark_memory_timeout¶
benchmark_memory_timeout (Number)
默认值 2
允许用于通过生成 numpy 帧测试内存带宽的秒数
benchmark_memory_vm_fraction¶
benchmark_memory_vm_fraction (Float)
默认值 0.25
虚拟机总数中用于 numpy 内存基准测试的最大比例
benchmark_memory_max_cols¶
benchmark_memory_max_cols (Number)
默认值 1500
用于 numpy 内存基准测试的最大列数
enable_startup_checks¶
enable_startup_checks (Boolean)
默认值 True
是否在应用程序启动时运行快速启动检查
application_id¶
application_id (String)
默认值 ''
应用程序 ID 覆盖,应唯一地标识实例
audit_log_retention_period¶
audit_log_retention_period (Number)
默认值 5
审计日志记录会在多少天后被删除。设置为 0 表示禁用删除旧记录。