The order of m-lines in subsequent offer doesn't match order from previous offer/answer. (INVALID_PARAMETER)如何修复
时间: 2023-03-25 22:03:11 浏览: 323
这个问题可能是由于前一次的 offer/answer 中的 m-lines 顺序与后一次的 offer 中的 m-lines 顺序不匹配导致的。要修复这个问题,可以检查前一次的 offer/answer 中的 m-lines 顺序,然后在后一次的 offer 中按照相同的顺序排列 m-lines。如果仍然存在问题,可以检查 SDP 协议是否正确,并确保所有的参数都正确设置。
相关问题
解释一下这段代码new_hf_num = bsxfun(@times, conj(yf), xtf) / prod(p.cf_response_size); new_hf_den = (conj(xtf) .* xtf) / prod(p.cf_response_size); if frame == 1 % first frame, train with a single image hf_den = new_hf_den; hf_num = new_hf_num; else % subsequent frames, update the model by linear interpolation hf_den = (1 - p.learning_rate_cf) * hf_den + p.learning_rate_cf * new_hf_den; hf_num = (1 - p.learning_rate_cf) * hf_num + p.learning_rate_cf * new_hf_num; %% BG/FG MODEL UPDATE % patch of the target + padding [bg_hist, fg_hist] = updateHistModel(new_pwp_model, im_patch_bg, bg_area, fg_area, target_sz, p.norm_bg_area, p.n_bins, p.grayscale_sequence, bg_hist, fg_hist, p.learning_rate_pwp); end
这段代码是用于跟踪目标的。具体来说,它实现了一个基于视觉识别的目标跟踪算法。其中,new_hf_num和new_hf_den是新的目标模型的分子和分母,它们是通过将当前帧中的图像特征与目标模型进行卷积得到的。在第一帧中,只使用当前帧的图像来训练模型,因此将new_hf_den和new_hf_num分别设置为hf_den和hf_num。在之后的帧中,使用线性插值来更新模型,其中p.learning_rate_cf是一个学习率参数。在模型更新的同时,还会更新背景/前景模型,以更准确地跟踪目标。
def init_weights(self): initrange = 0.1 self.decoder.bias.data.zero_() self.decoder.weight.data.uniform_(-initrange, initrange) def forward(self,src): src = src.unsqueeze(2) if self.src_mask is None or self.src_mask.size(0) != len(src): device = src.device mask = self._generate_square_subsequent_mask(len(src)).to(device) self.src_mask = mask src = self.pos_encoder(src) #print('##src',src.shape,self.src_mask.shape) output_1 = self.transformer_encoder(src) #, self.src_mask) output = output_1[0, :, :] output=torch.sum(output,dim=0) # output = self.decoder(output_1[-1]).squeeze(1) return output def _generate_square_subsequent_mask(self, sz): mask = (torch.triu(torch.ones(sz, sz)) == 1).transpose(0, 1) mask = mask.float().masked_fill(mask == 0, float('-inf')).masked_fill(mask == 1, float(0.0)) return mask
这段代码看起来是一个基于Transformer的模型,主要包括了初始化权重和前向传播两个函数。在初始化权重的函数中,将decoder的bias设为0,权重采用均匀分布初始化。在前向传播的函数中,首先将输入的src张量增加一个维度,然后通过位置编码器对输入进行编码,接着将编码后的输入传入Transformer的encoder中进行编码,得到输出output_1。在这段代码中,未使用self.src_mask,因此可以考虑将其删除。最后,将output_1中的第一个元素作为输出,通过对第一个维度的求和来实现将输出从3D张量降为2D张量。
阅读全文