self.input_size = input_size self.output_size = output_size self.hidden_size_list = hidden_size_list self.hidden_layer_num = len(hidden_size_list) self.use_dropout = use_dropout self.weight_decay_lambda = weight_decay_lambda self.use_batchnorm = use_batchnorm self.params = {} # 初始化权重 self.__init_weight(weight_init_std) # 生成层 activation_layer = {'sigmoid': Sigmoid, 'relu': Relu} self.layers = OrderedDict()
时间: 2024-04-03 09:35:19 浏览: 46
alibaba_seq_behavior
接下来的代码是初始化函数的一部分,它调用了一个名为__init_weight的函数,用于初始化神经网络的权重。该函数接收一个参数weight_init_std,指定权重的初始化标准差。接下来,函数创建了一个名为activation_layer的字典,该字典用于存储激活函数。字典的键是激活函数的名称,值是对应的激活函数类。最后,函数创建了一个有序字典layers,用于存储神经网络的各个层。
阅读全文