is.online.env = true
#core服务的端口
master.port = 8081
#core服务地址
master.host = <u>127.0.0.1</u>
#数据源密码加密秘钥
encrypt.key = b6509aaa4b9d01c4132f6c911390b341
#mysql数据库地址
meta.db.url = <u>jdbc:mysql://127.0.0.1:3306/DW_FLOW?useUnicode=true&characterEncoding=UTF-
8</u>
#mysql数据库用户名
meta.db.usr = <u>root</u>
#mysql数据库密码
meta.db.pwd = <u>root</u>
#HDFS相关配置
hdfs.nameservices = <u>wakedataCluster</u>
dfs.namenode.rpc-address = <u>hd-node-00-01.wd.com:8020, hd-node-00-02.wd.com:8020</u>
#hive元数据连接mysql的url
mysql.hivemeta.url = <u>jdbc:mysql://127.0.0.1:3306/hive?
useUnicode=true&characterEncoding=UTF-8</u>
#hive元数据连接mysql的用户名
mysql.hivemeta.usr = <u>root</u>
#hive元数据连接mysql的密码
mysql.hivemeta.pwd = <u>root</u>
#hive jdbc连接地址 注:${database}必须存在,根据下面事例进行修改
hive.url = <u>jdbc:hive2://hdp-wakedata-01:2181,hdp-wakedata-02:2181,hdp-wakedata-
03:2181/${database};serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=hiveserver2</u>
#atlas用户名
atlas.usr = <u>admin</u>
#atlas密码
atlas.pwd = <u>admin</u>
#atlas地址
atlas.url = <u>http://hdp-wakedata-01:21000</u>
# hiveUDF 上传文件到hdfs的基本路径
hive.udf.baseDir = /tmp/data/udf/hive/
# 个人资源文件上传到hdfs的基本路径
user.resource.baseDir = /tmp/data/user/resource/
# sparkUDF 文件上传到hdfs的基本路径
spark.udf.baseDir = /tmp/data/udf/spark/
#超级管理员,拥有所有权限 --如果没有接入权限系统,则不修改
administrators = system