df[['discounted_price']] = df[['discounted_price']].replace({'\₹':''},regex=True)作用详细
时间: 2023-10-10 15:06:00 浏览: 183
这行代码的作用是将DataFrame中名为'discounted_price'的列的值中的"₹"符号替换为空字符串。
具体来说,`df[['discounted_price']]`选取了名为'discounted_price'的列,并将其转化为一个DataFrame对象。然后,`.replace({'\₹':''},regex=True)`方法调用了DataFrame对象的replace()方法,将所有包含符号"₹"的字符串替换为空字符串。其中,`{'\₹':''}`是一个字典,表示将"₹"替换为空字符串。`regex=True`表示使用正则表达式进行替换。
最终,将替换后的值赋值回原DataFrame对象中的'discounted_price'列,实现了从原始数据中去除"₹"符号的目的。
相关问题
while not ep_done: num_steps += 1 if train_params.RENDER: self.env_wrapper.render() action = self.sess.run(self.actor_net.output, {self.state_ph:np.expand_dims(state, 0)})[0] # Add batch dimension to single state input, and remove batch dimension from single action output action += (gaussian_noise() * train_params.NOISE_DECAY**num_eps) next_state, reward, terminal = self.env_wrapper.step(action) episode_reward += reward next_state = self.env_wrapper.normalise_state(next_state) reward = self.env_wrapper.normalise_reward(reward) self.exp_buffer.append((state, action, reward)) if len(self.exp_buffer) >= train_params.N_STEP_RETURNS: state_0, action_0, reward_0 = self.exp_buffer.popleft() discounted_reward = reward_0 gamma = train_params.DISCOUNT_RATE for (_, _, r_i) in self.exp_buffer: discounted_reward += r_i * gamma gamma *= train_params.DISCOUNT_RATE run_agent_event.wait() PER_memory.add(state_0, action_0, discounted_reward, next_state, terminal, gamma) state = next_state
这段代码是主循环中的一部分,其中包含了执行动作、观察环境、更新经验缓存等操作。具体来说,算法执行以下步骤:
1. 累计步数;
2. 如果需要渲染环境,则渲染环境;
3. 使用Actor网络计算当前状态的动作;
4. 对动作添加高斯噪声;
5. 执行动作并观察新状态和奖励;
6. 累计回报;
7. 对新状态进行归一化处理;
8. 对奖励进行归一化处理;
9. 将经验添加到经验缓存中;
10. 如果经验缓存已满,则计算N步回报,并将经验添加到优先经验回放缓存中;
11. 更新状态。
在这个过程中,Actor网络用于计算当前状态下的动作,而高斯噪声则用于增加探索性,以便算法能够更好地探索环境。在执行动作之后,算法会观察新状态和奖励,并将它们添加到经验缓存中。如果经验缓存已满,算法会计算N步回报,并将经验添加到优先经验回放缓存中。最后,算法会更新状态并继续执行主循环。
class PPO(object): def __init__(self): self.sess = tf.Session() self.tfs = tf.placeholder(tf.float32, [None, S_DIM], 'state') # critic with tf.variable_scope('critic'): l1 = tf.layers.dense(self.tfs, 100, tf.nn.relu) self.v = tf.layers.dense(l1, 1) self.tfdc_r = tf.placeholder(tf.float32, [None, 1], 'discounted_r') self.advantage = self.tfdc_r - self.v self.closs = tf.reduce_mean(tf.square(self.advantage)) self.ctrain_op = tf.train.AdamOptimizer(C_LR).minimize(self.closs) # actor pi, pi_params = self._build_anet('pi', trainable=True) oldpi, oldpi_params = self._build_anet('oldpi', trainable=False) with tf.variable_scope('sample_action'): self.sample_op = tf.squeeze(pi.sample(1), axis=0) # choosing action with tf.variable_scope('update_oldpi'): self.update_oldpi_op = [oldp.assign(p) for p, oldp in zip(pi_params, oldpi_params)] self.tfa = tf.placeholder(tf.float32, [None, A_DIM], 'action') self.tfadv = tf.placeholder(tf.float32, [None, 1], 'advantage') with tf.variable_scope('loss'): with tf.variable_scope('surrogate'): # ratio = tf.exp(pi.log_prob(self.tfa) - oldpi.log_prob(self.tfa)) ratio = pi.prob(self.tfa) / (oldpi.prob(self.tfa) + 1e-5) surr = ratio * self.tfadv if METHOD['name'] == 'kl_pen': self.tflam = tf.placeholder(tf.float32, None, 'lambda') kl = tf.distributions.kl_divergence(oldpi, pi) self.kl_mean = tf.reduce_mean(kl) self.aloss = -(tf.reduce_mean(surr - self.tflam * kl)) else: # clipping method, find this is better self.aloss = -tf.reduce_mean(tf.minimum( surr, tf.clip_by_value(ratio, 1.-METHOD['epsilon'], 1.+METHOD['epsilon'])*self.tfadv))
这段代码是使用 PPO(Proximal Policy Optimization)算法实现的一个 actor-critic 模型。其中,critic 用来评价当前状态的价值,actor 用来生成在当前状态下采取的动作。在训练过程中,会使用 advantage(优势值)来评价采取某个动作的好坏,并且使用 surrogate loss(代理损失)来训练 actor,同时使用 clipping 或 kl penalty 的方式来限制优势值的大小,以保证训练的稳定性。
阅读全文