@api.model def create(self, vals): if vals.get("code") in ('/', None, False): vals["code"] = self.env['ir.sequence'].next_by_code('roke.production.order.code') # app创建处理默认为客户(防止用户创建客户不勾选是否客户) if vals.__contains__("customer_id"): partner_id = self.env['roke.partner'].search([('id', '=', int(vals.get('customer_id')))], limit=1) if partner_id: partner_id.write({'customer': True}) return super(RokeProductionOrder, self).create(vals)
时间: 2024-04-05 17:32:48 浏览: 183
这是一个用于创建 RokeProductionOrder 记录的方法。在这个方法中,首先判断传入的参数中是否包含 code 字段,如果没有则使用 ir.sequence 生成一个唯一的 code 值。接着判断传入的参数中是否包含 customer_id 字段,如果有,则将对应的 partner 记录标记为客户。最后调用 super() 方法创建 RokeProductionOrder 记录并返回。这个方法的作用是自动生成 code 值并将对应的 partner 记录标记为客户,确保了数据的有效性和一致性。
相关问题
class PPOMemory: def __init__(self, batch_size): self.states = [] self.probs = [] self.vals = [] self.actions = [] self.rewards = [] self.dones = [] self.batch_size = batch_size def sample(self): batch_step = np.arange(0, len(self.states), self.batch_size) indices = np.arange(len(self.states), dtype=np.int64) np.random.shuffle(indices) batches = [indices[i:i+self.batch_size] for i in batch_step] return np.array(self.states),np.array(self.actions),np.array(self.probs),\ np.array(self.vals),np.array(self.rewards),np.array(self.dones),batches def push(self, state, action, probs, vals, reward, done): self.states.append(state) self.actions.append(action) self.probs.append(probs) self.vals.append(vals) self.rewards.append(reward) self.dones.append(done) def clear(self): self.states = [] self.probs = [] self.actions = [] self.rewards = [] self.dones = [] self.vals = []
这段代码是一个 PPO 算法中的经验回放(experience replay)类,用于存储和采样交互数据。具体来说,这个类有以下几个成员函数:
1. 构造函数 __init__:初始化经验回放缓存的大小 batch_size,并创建空的列表来存储状态、动作、概率、价值、奖励和完成标志等信息。
2. 采样函数 sample:将经验回放缓存中的数据按照 batch_size 分成若干个 batch,然后随机打乱数据索引,最后返回一个包含所有 batch 的列表。每个 batch 包含一个状态状态列表、一个动作列表、一个概率列表、一个价值列表、一个奖励列表和一个完成标志列表。
3. 存储函数 push:将交互数据(即一个状态 state、一个动作 action、一个概率 probs、一个价值 vals、一个奖励 reward 和一个完成标志 done)存储到经验回放缓存中。
4. 清空函数 clear:清空经验回放缓存,以便下一次使用。
整个经验回放类的作用是存储和采样交互数据,以便训练 PPO 算法时能够从多个交互轮次中有效地学习。其中,采样函数 sample 会将数据随机打乱,以避免过于相关的数据干扰训练。
y_pred = np.zeros(y_train.shape) for tree in forest: a = [] for j in range(X_train.shape[1]): if np.median(X_train[:, j]) > np.mean(X_train[:, j]): fuzzy_vals = fuzz.trapmf(X_train[:, j], [np.min(X_train[:, j]), np.mean(X_train[:, j]), np.median(X_train[:, j]), np.max(X_train[:, j])]) else: fuzzy_vals = fuzz.trapmf(X_train[:, j], [np.min(X_train[:, j]), np.median(X_train[:, j]), np.mean(X_train[:, j]), np.max(X_train[:, j])]) a.append(fuzzy_vals) fuzzy_vals = np.array(a).T y_pred += tree.predict_proba(fuzzy_vals)[:, 1] y_pred /= n_trees怎么改成分类数据的输出
如果要将这段代码修改为分类数据的输出,需要修改两个地方:
1. 修改y_pred的初始化:分类数据的输出应该是离散的类别标签,而不是概率值。因此,我们需要将y_pred初始化为一个长度为样本数的数组,每个元素的取值为该样本所属的类别标签。
2. 修改y_pred的计算方式:在每棵决策树中,我们需要将输出的概率转换为类别标签,然后将所有决策树的输出取平均值作为最终的预测结果。
下面是修改后的代码:
```python
y_pred = np.zeros(y_train.shape[0])
for tree in forest:
a = []
for j in range(X_train.shape[1]):
if np.median(X_train[:, j]) > np.mean(X_train[:, j]):
fuzzy_vals = fuzz.trapmf(X_train[:, j], [np.min(X_train[:, j]), np.mean(X_train[:, j]), np.median(X_train[:, j]), np.max(X_train[:, j])])
else:
fuzzy_vals = fuzz.trapmf(X_train[:, j], [np.min(X_train[:, j]), np.median(X_train[:, j]), np.mean(X_train[:, j]), np.max(X_train[:, j])])
a.append(fuzzy_vals)
fuzzy_vals = np.array(a).T
y_proba = tree.predict_proba(fuzzy_vals)
# 将概率转换为类别标签
y_tree = np.argmax(y_proba, axis=1)
y_pred += y_tree
# 将所有决策树的输出取平均值作为最终的预测结果
y_pred /= n_trees
```
注意,这里假设分类数据的类别标签是从0开始的整数。如果标签不是这种形式,需要根据实际情况进行调整。
阅读全文