联邦逻辑回归训练模型有这些参数 "no_models" "global_epochs""local_epochs""k""batch_size" "lr" "momentum" "lambda" "feature_num" 推荐一下这些参数设置大小
时间: 2023-09-17 07:10:47 浏览: 81
LR.tar.gz_改进逻辑回归_梯度下降法_逻辑回归_逻辑回归 python_逻辑回归python
这些参数的设置大小需要根据具体的数据集和模型来决定,以下是一些一般的建议:
- no_models: 通常选择在 5 到 100 之间,这取决于数据集的规模和联邦学习的分布式计算资源。
- global_epochs: 通常选择在 5 到 50 之间,这取决于模型的复杂度和数据集的规模。如果模型很简单或者数据集很小,可以适当减少全局训练轮数。
- local_epochs: 通常选择在 1 到 10 之间,这取决于模型的复杂度和数据集的规模。如果模型很简单或者数据集很小,可以适当减少本地训练轮数。
- k: 通常选择在 1 到 10 之间,这取决于联邦学习的分布式计算资源和模型的复杂度。如果计算资源有限或者模型很复杂,可以适当减少参与训练的客户端数量。
- batch_size: 通常选择在 16 到 256 之间,这取决于模型的复杂度和数据集的规模。如果模型很简单或者数据集很小,可以适当减少批量大小。
- lr: 通常选择在 0.001 到 0.1 之间,这取决于模型的复杂度和数据集的规模。如果模型很简单或者数据集很小,可以适当减少学习率。
- momentum: 通常选择在 0.9 到 0.99 之间,这取决于模型的复杂度和数据集的规模。如果模型很简单或者数据集很小,可以适当减少动量参数。
- lambda: 通常选择在 0.001 到 0.1 之间,这取决于模型的复杂度和数据集的规模。如果模型很简单或者数据集很小,可以适当减少正则化参数。
- feature_num: 通常选择根据数据集的特征数量来确定。如果数据集的特征数量很少,可以适当减少特征数量。
阅读全文