python安装pyspark
时间: 2023-10-06 12:07:45 浏览: 104
Python库 | pyspark_hnsw-0.45-py2-none-any.whl
安装 PySpark,需要先安装 Apache Spark,然后再通过 pip 安装 PySpark。
以下是在 Linux 系统上安装 Apache Spark 和 PySpark 的步骤:
1. 下载 Apache Spark:
```
$ wget https://downloads.apache.org/spark/spark-3.1.1/spark-3.1.1-bin-hadoop3.2.tgz
```
2. 解压 Apache Spark:
```
$ tar -xzf spark-3.1.1-bin-hadoop3.2.tgz
```
3. 将解压后的文件夹移动到 /usr/local 目录下:
```
$ sudo mv spark-3.1.1-bin-hadoop3.2 /usr/local/spark
```
4. 将 Apache Spark 的 bin 目录添加到 PATH 环境变量中:
```
$ export PATH=$PATH:/usr/local/spark/bin
```
5. 安装 PySpark:
```
$ pip install pyspark
```
安装完成后,可以使用以下命令测试 PySpark 是否安装成功:
```
$ pyspark
```
如果 PySpark 成功启动,说明安装成功。
阅读全文