pyspark怎么安装
时间: 2023-12-08 15:59:53 浏览: 76
Pyspark综合案例(pyspark安装和java运行环境配置)
以下是在Ubuntu 18.04上安装pyspark的步骤:
1. 安装Java
```bash
sudo apt update
sudo apt install default-jdk
```
2. 下载Spark
从官方网站下载一个Spark版本:https://spark.apache.org/downloads.html
```bash
wget https://downloads.apache.org/spark/spark-3.1.2/spark-3.1.2-bin-hadoop3.2.tgz
```
3. 解压Spark
```bash
tar xvf spark-3.1.2-bin-hadoop3.2.tgz
```
4. 配置环境变量
将以下内容添加到~/.bashrc文件的末尾:
```bash
export SPARK_HOME=/path/to/spark-3.1.2-bin-hadoop3.2
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
export PYSPARK_PYTHON=/usr/bin/python3
```
5. 安装pyspark
```bash
pip install pyspark
```
6. 测试pyspark
在终端中输入以下命令:
```bash
pyspark
```
如果一切正常,你应该会看到Spark的欢迎信息和一个Python交互式终端。
阅读全文