verbosity翻译
时间: 2023-08-23 09:07:46 浏览: 240
"Verbosity" 的翻译是 "冗长,啰嗦",在计算机编程中通常用于表示输出信息的详细程度,越高则输出的信息越详细、越多。在 Python 编程中,verbosity 通常作为参数传递给函数或库,用于控制输出信息的详细程度。例如,当 verbosity 参数为 0 时,函数或库只输出最基本的信息;当 verbosity 参数为 1 时,输出的信息会更加详细,包括一些额外的信息;当 verbosity 参数为 2 时,输出的信息则更加冗长详细。
相关问题
给出此文档的翻译,给出文档中所有的代码及其用法解释说明
### 文档翻译概要
该文档是一本关于如何处理几乎所有机器学习问题的书籍的部分内容介绍。作者在前言部分感谢了支持他的家人和朋友以及为本书审稿的人们,并强调这本书并不是一本传统的书,它假定读者已经具备基本的机器学习和深度学习的知识。此外,书中使用了大量的Python代码示例,并且所有代码都通过注释进行了详细解释。同时介绍了设置工作环境的方法、监督与非监督学习的区别、交叉验证等内容的大致结构,并提及了后续章节将涉及的主题如特征工程等。
### 代码及用法解释说明
以下是文档中出现的一些关键代码片段及其用途:
#### 设置Ubuntu系统和安装Miniconda
```bash
$ cd ~/Downloads
$ wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
$ sh Miniconda3-latest-Linux-x86_64.sh
```
这些命令用于下载并运行Miniconda安装脚本到用户的下载目录下,从而能够在Linux操作系统上安装一个轻量级的Anaconda发行版,即Miniconda。
#### 定义数据集类
```python
class SIIMDataset(torch.utils.data.Dataset):
...
```
这里定义了一个名为`SIIMDataset`的数据集类,继承自PyTorch框架提供的`torch.utils.data.Dataset`基类。此类主要用于处理图像分割任务中的训练数据,包括读取图片文件、应用预处理操作(例如归一化)以及加载对应的掩码(mask)信息。
#### 创建数据加载器
```python
train_loader = torch.utils.data.DataLoader(
train_dataset,
batch_size=TRAINING_BATCH_SIZE,
shuffle=True,
num_workers=12
)
```
这行代码创建了一个用于训练过程中的数据加载器对象,其参数指定了批量大小(batch size),是否打乱样本顺序(shuffle),以及用于并行加载数据的工作线程数(num_workers)等配置项。
#### 初始化模型优化器
```python
optimizer = torch.optim.Adam(model.parameters(), lr=1e-3)
```
此段初始化了一个Adam优化算法实例来更新神经网络模型的参数值,设定初始学习率为0.001(`lr=1e-3`)。
#### 模型混合精度训练准备
```python
model, optimizer = amp.initialize(
model, optimizer,
opt_level="O1",
verbosity=0
)
```
如果硬件支持的话,则可以启用NVIDIA的自动混合精度训练功能,以加速计算效率并且允许使用更大的输入尺寸或批次大小进行训练。
以上是文档内提到的主要编程实现细节及其作用概述。
翻译这段代码:print("start:") start = time.time() K = 9 skf = StratifiedKFold(n_splits=K,shuffle=True,random_state=2018) auc_cv = [] pred_cv = [] for k,(train_in,test_in) in enumerate(skf.split(X,y)): X_train,X_test,y_train,y_test = X[train_in],X[test_in],\ y[train_in],y[test_in] # The data structure 数据结构 lgb_train = lgb.Dataset(X_train, y_train) lgb_eval = lgb.Dataset(X_test, y_test, reference=lgb_train) # Set the parameters 设置参数 params = { 'boosting': 'gbdt', 'objective':'binary', 'verbosity': -1, 'learning_rate': 0.01, 'metric': 'auc', 'num_leaves':17 , 'min_data_in_leaf': 26, 'min_child_weight': 1.12, 'max_depth': 9, "feature_fraction": 0.91, "bagging_fraction": 0.82, "bagging_freq": 2, } print('................Start training..........................') # train gbm = lgb.train(params, lgb_train, num_boost_round=2000, valid_sets=lgb_eval, early_stopping_rounds=100, verbose_eval=100) print('................Start predict .........................') # Predict y_pred = gbm.predict(X_test,num_iteration=gbm.best_iteration) # Evaluate tmp_auc = roc_auc_score(y_test,y_pred) auc_cv.append(tmp_auc) print("valid auc:",tmp_auc) # Test pred = gbm.predict(X, num_iteration = gbm.best_iteration) pred_cv.append(pred) # the mean auc score of StratifiedKFold StratifiedKFold的平均auc分数 print('the cv information:') print(auc_cv) lgb_mean_auc = np.mean(auc_cv) print('cv mean score',lgb_mean_auc) end = time.time() lgb_practice_time=end-start print("......................run with time: {} s".format(lgb_practice_time) ) print("over:*") # turn into array 变为阵列 res = np.array(pred_cv) print("rusult:",res.shape) # mean the result 平均结果 r = res.mean(axis = 0) print('result shape:',r.shape) result = pd.DataFrame() result['company_id'] = range(1,df.shape[0]+1) result['pred_prob'] = r
打印 "start:",并记录开始时间。然后进行 K 折交叉验证,其中 K=9。对于每个交叉验证的训练集和测试集,使用 LightGBM 模型进行训练和预测,并计算每个测试集的 AUC 分数。将每个测试集的预测结果和相应的 AUC 分数存储在数组中。计算 StratifiedKFold 的平均 AUC 分数,并打印出来。将所有测试集的预测结果取平均值作为最终预测结果,并将其存储在 DataFrame 中。最后打印出总运行时间。
阅读全文