dataframe 中利用两列数相加
时间: 2023-02-12 19:19:55 浏览: 127
可以使用 Pandas 库中的 DataFrame 对象的 "add" 方法来实现将两列数相加。
语法为:
```
df['new_column_name'] = df['column_1'] + df['column_2']
```
其中,'new_column_name' 是新增加的列的名称,'column_1' 和 'column_2' 是要相加的两列的名称。
例如:
```
df = pd.DataFrame({'A': [1, 2, 3], 'B': [4, 5, 6]})
df['C'] = df['A'] + df['B']
```
这样,就在 DataFrame 中新增了一列 'C',其中的值为 'A' 列和 'B' 列的值的和。
如果想要在某个列上进行运算,那么也可以这么做:
```
df['A']=df['A']+df['B']
```
相关问题
只保留DataFrame中的两列数据
可以使用 `df[[列名1, 列名2]]` 来只保留 DataFrame 中的两列数据。例如,假设有一个 DataFrame `df`,其中包含列名为 `col1`、`col2`、`col3` 的三列数据,如果只想保留 `col1` 和 `col2` 两列,可以这样操作:
``` python
df = df[['col1', 'col2']]
```
这样就可以只保留 `col1` 和 `col2` 两列数据了。
pyspark dataframe将两列的值相加
我理解您的问题是关于如何在 PySpark DataFrame 中将两列的值相加。可以使用 PySpark 提供的 `withColumn` 方法,将两列相加并创建一个新列。具体代码如下:
```
from pyspark.sql.functions import col
dataframe = dataframe.withColumn('new_column', col('column1') + col('column2'))
```
其中,`dataframe` 是您的 PySpark DataFrame,`column1` 和 `column2` 是需要相加的两列,`new_column` 是新创建的相加之和的列。