Loading docs/zh_CN/系统使用手册.md +10 −1 Original line number Diff line number Diff line Loading @@ -215,11 +215,12 @@ 注意:如果开启了**kerberos**,则需要填写 **Principal** <p align="center"> <img src="https://analysys.github.io/easyscheduler_docs_cn/images/hive_edit2.png" width="60%" /> <img src="https://analysys.github.io/easyscheduler_docs_cn/images/hive_kerberos.png" width="60%" /> </p> #### 创建、编辑Spark数据源 <p align="center"> Loading @@ -236,6 +237,14 @@ - 数据库名:输入连接Spark的数据库名称 - Jdbc连接参数:用于Spark连接的参数设置,以JSON形式填写 注意:如果开启了**kerberos**,则需要填写 **Principal** <p align="center"> <img src="https://analysys.github.io/easyscheduler_docs_cn/images/sparksql_kerberos.png" width="60%" /> </p> ### 上传资源 - 上传资源文件和udf函数,所有上传的文件和资源都会被存储到hdfs上,所以需要以下配置项: Loading Loading
docs/zh_CN/系统使用手册.md +10 −1 Original line number Diff line number Diff line Loading @@ -215,11 +215,12 @@ 注意:如果开启了**kerberos**,则需要填写 **Principal** <p align="center"> <img src="https://analysys.github.io/easyscheduler_docs_cn/images/hive_edit2.png" width="60%" /> <img src="https://analysys.github.io/easyscheduler_docs_cn/images/hive_kerberos.png" width="60%" /> </p> #### 创建、编辑Spark数据源 <p align="center"> Loading @@ -236,6 +237,14 @@ - 数据库名:输入连接Spark的数据库名称 - Jdbc连接参数:用于Spark连接的参数设置,以JSON形式填写 注意:如果开启了**kerberos**,则需要填写 **Principal** <p align="center"> <img src="https://analysys.github.io/easyscheduler_docs_cn/images/sparksql_kerberos.png" width="60%" /> </p> ### 上传资源 - 上传资源文件和udf函数,所有上传的文件和资源都会被存储到hdfs上,所以需要以下配置项: Loading