![](https://csdnimg.cn/release/download_crawler_static/86329645/bg6.jpg)
尚硅谷大数据技术之 Griffin
—————————————————————————————
更多 Java –大数据 –前端 –python 人工智能资料下载,可百度访问:尚硅谷官网
[atguigu@hadoop102 lib]$ cp
/opt/module/hive-2.3.6/lib/datanucleus-*.jar
/opt/module/spark/jars/
9 ) 把 Hive 中 /opt/module/hive-2.3.6/conf/hive-site.xml 包 拷 贝 到 Spark 的
/opt/module/spark/conf 路径
[atguigu@hadoop102 conf]$ cp
/opt/module/hive-2.3.6/conf/hive-site.xml
/opt/module/spark/conf/
10
)测试环境
[atguigu@hadoop102 spark]$ bin/spark-shell
scala>spark.sql("show databases").show
2.1.5 安装 Livy0.3
1)上传 livy-server-0.3.0.zip 到 hadoop102 的/opt/software 目录下,并解压到/opt/module
[atguigu@hadoop102 software]$ unzip livy-server-0.3.0.zip -d
/opt/module/
2)修改/opt/module/livy-server-0.3.0 文件名称为 livy
[atguigu@hadoop102 module]$ mv livy-server-0.3.0/ livy
3)修改/opt/module/livy/conf/livy.conf 文件,配置 livy 与 spark 相关参数
livy.server.host = Hadoop102
livy.spark.master =yarn
livy.spark.deployMode = client
livy.repl.enableHiveContext = true
livy.server.port = 8998
4)配置需要的环境变量
[atguigu@hadoop102 conf]$ sudo vim /etc/profile
#SPARK_HOME
export SPARK_HOME=/opt/module/spark
export PATH=$PATH:$SPARK_HOME/bin
[atguigu@hadoop102 conf]$ source /etc/profile
5
)在
/opt/module/livy/
路径上,启动
livy
服务
[atguigu@hadoop102 livy]$ bin/livy-server start
2.1.6
安装
MySQL5.6
1)上传 Init_quartz_mysql_innodb.sql 到 hadoop102 的/opt/software 目录
2)使用 mysql 创建 quartz 库,执行脚本初始化表信息
[atguigu@hadoop102 ~]$ mysql -uroot -p000000
mysql> create database quartz;
mysql> use quartz;
mysql> source /opt/software/Init_quartz_mysql_innodb.sql
mysql> show tables;