for input_num in range(train_x.shape[0]): input_x = np.zeros(input_kernel) for input_for_hid_num in range(hid_kernel): if(input_for_hid_num == 0): input_x = train_x.iloc[input_num].T else: input_x = np.hstack([input_x, train_x.iloc[input_num].T]) hid_temp = fit_w * input_x hid_result = np.zeros(hid_kernel) for hid_num in range(hid_kernel): hid_result[hid_num] = relu(np.sum(hid_temp[hid_num * input_kernel : (hid_num * input_kernel) + input_kernel]) + fit_wbias[hid_num]) output_temp = fit_v * hid_result data_result[input_num] = np.sum(output_temp + fit_vbias)
时间: 2024-04-04 11:34:38 浏览: 139
这段代码是模型的前向传播过程,用于计算模型对训练集中每个样本的预测结果。具体来说,代码对于每个样本,首先定义一个长度为input_kernel的全0数组input_x,用于存储输入层的值。然后,对于隐层中的每个神经元,将输入层和当前样本的特征进行拼接,得到长度为input_kernel * hid_kernel的hid_temp向量,然后对每个神经元的输入进行Relu激活函数处理,得到长度为hid_kernel的hid_result向量,表示隐层的输出。接着,将hid_result向量和fit_v参数进行矩阵相乘,得到长度为output_kernel的output_temp向量,表示输出层的输入。最后,将output_temp向量加上fit_vbias参数,得到模型对当前样本的预测结果。预测结果保存在data_result数组中。这个过程将对训练集中每个样本都进行一次,从而得到模型在训练集上的预测结果。
阅读全文