public class CreateSparkAppRequest extends AbstractModel
header, skipSign| Constructor and Description | 
|---|
| CreateSparkAppRequest() | 
| CreateSparkAppRequest(CreateSparkAppRequest source)NOTE: Any ambiguous key set via .set("AnyKey", "value") will be a shallow copy,
       and any explicit key, i.e Foo, set via .setFoo("value") will be a deep copy. | 
| Modifier and Type | Method and Description | 
|---|---|
| String | getAppArchives()Get spark作业依赖archives资源(--archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔 | 
| String | getAppConf()Get spark配置,以换行符分隔 | 
| String | getAppDriverSize()Get 指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu) | 
| Long | getAppExecutorMaxNumbers()Get 指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums | 
| Long | getAppExecutorNums()Get spark作业executor个数 | 
| String | getAppExecutorSize()Get 指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu) | 
| String | getAppFile()Get spark作业程序包文件路径 | 
| String | getAppFiles()Get spark作业依赖文件资源(--files)(非jar、zip),以逗号分隔 | 
| String | getAppJars()Get spark 作业依赖jar包(--jars),以逗号分隔 | 
| String | getAppName()Get spark作业名 | 
| String | getAppPythonFiles()Get pyspark作业依赖python资源(--py-files),支持py/zip/egg等归档格式,多文件以逗号分隔 | 
| Long | getAppType()Get spark作业类型,1代表spark jar作业,2代表spark streaming作业 | 
| String | getCmdArgs()Get spark作业程序入参,空格分割 | 
| String | getDataEngine()Get 执行spark作业的数据引擎名称 | 
| String | getDataSource()Get 数据源名称 | 
| DependencyPackage[] | getDependencyPackages()Get 依赖包信息 | 
| String | getEni()Get 该字段已下线,请使用字段Datasource | 
| Long | getIsInherit()Get 任务资源配置是否继承集群模板,0(默认)不继承,1:继承 | 
| String | getIsLocal()Get spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用) | 
| String | getIsLocalArchives()Get spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用) | 
| String | getIsLocalFiles()Get spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用) | 
| String | getIsLocalJars()Get spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用) | 
| String | getIsLocalPythonFiles()Get pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用) | 
| Boolean | getIsSessionStarted()Get 是否使用session脚本的sql运行任务:false:否,true:是 | 
| String | getMainClass()Get spark作业主类 | 
| Long | getMaxRetries()Get 最大重试次数,只对spark流任务生效 | 
| Long | getRoleArn()Get 数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值; | 
| String | getSessionId()Get 关联dlc查询脚本id | 
| String | getSparkImage()Get Spark Image 版本号 | 
| String | getSparkImageVersion()Get Spark Image 版本名称 | 
| void | setAppArchives(String AppArchives)Set spark作业依赖archives资源(--archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔 | 
| void | setAppConf(String AppConf)Set spark配置,以换行符分隔 | 
| void | setAppDriverSize(String AppDriverSize)Set 指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu) | 
| void | setAppExecutorMaxNumbers(Long AppExecutorMaxNumbers)Set 指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums | 
| void | setAppExecutorNums(Long AppExecutorNums)Set spark作业executor个数 | 
| void | setAppExecutorSize(String AppExecutorSize)Set 指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu) | 
| void | setAppFile(String AppFile)Set spark作业程序包文件路径 | 
| void | setAppFiles(String AppFiles)Set spark作业依赖文件资源(--files)(非jar、zip),以逗号分隔 | 
| void | setAppJars(String AppJars)Set spark 作业依赖jar包(--jars),以逗号分隔 | 
| void | setAppName(String AppName)Set spark作业名 | 
| void | setAppPythonFiles(String AppPythonFiles)Set pyspark作业依赖python资源(--py-files),支持py/zip/egg等归档格式,多文件以逗号分隔 | 
| void | setAppType(Long AppType)Set spark作业类型,1代表spark jar作业,2代表spark streaming作业 | 
| void | setCmdArgs(String CmdArgs)Set spark作业程序入参,空格分割 | 
| void | setDataEngine(String DataEngine)Set 执行spark作业的数据引擎名称 | 
| void | setDataSource(String DataSource)Set 数据源名称 | 
| void | setDependencyPackages(DependencyPackage[] DependencyPackages)Set 依赖包信息 | 
| void | setEni(String Eni)Set 该字段已下线,请使用字段Datasource | 
| void | setIsInherit(Long IsInherit)Set 任务资源配置是否继承集群模板,0(默认)不继承,1:继承 | 
| void | setIsLocal(String IsLocal)Set spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用) | 
| void | setIsLocalArchives(String IsLocalArchives)Set spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用) | 
| void | setIsLocalFiles(String IsLocalFiles)Set spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用) | 
| void | setIsLocalJars(String IsLocalJars)Set spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用) | 
| void | setIsLocalPythonFiles(String IsLocalPythonFiles)Set pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用) | 
| void | setIsSessionStarted(Boolean IsSessionStarted)Set 是否使用session脚本的sql运行任务:false:否,true:是 | 
| void | setMainClass(String MainClass)Set spark作业主类 | 
| void | setMaxRetries(Long MaxRetries)Set 最大重试次数,只对spark流任务生效 | 
| void | setRoleArn(Long RoleArn)Set 数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值; | 
| void | setSessionId(String SessionId)Set 关联dlc查询脚本id | 
| void | setSparkImage(String SparkImage)Set Spark Image 版本号 | 
| void | setSparkImageVersion(String SparkImageVersion)Set Spark Image 版本名称 | 
| void | toMap(HashMap<String,String> map,
     String prefix)Internal implementation, normal users should not use it. | 
any, fromJsonString, getBinaryParams, GetHeader, getMultipartRequestParams, getSkipSign, isStream, set, SetHeader, setParamArrayObj, setParamArraySimple, setParamObj, setParamSimple, setSkipSign, toJsonStringpublic CreateSparkAppRequest()
public CreateSparkAppRequest(CreateSparkAppRequest source)
public String getAppName()
public void setAppName(String AppName)
AppName - spark作业名public Long getAppType()
public void setAppType(Long AppType)
AppType - spark作业类型,1代表spark jar作业,2代表spark streaming作业public String getDataEngine()
public void setDataEngine(String DataEngine)
DataEngine - 执行spark作业的数据引擎名称public String getAppFile()
public void setAppFile(String AppFile)
AppFile - spark作业程序包文件路径public Long getRoleArn()
public void setRoleArn(Long RoleArn)
RoleArn - 数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;public String getAppDriverSize()
public void setAppDriverSize(String AppDriverSize)
AppDriverSize - 指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)public String getAppExecutorSize()
public void setAppExecutorSize(String AppExecutorSize)
AppExecutorSize - 指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)public Long getAppExecutorNums()
public void setAppExecutorNums(Long AppExecutorNums)
AppExecutorNums - spark作业executor个数public String getEni()
public void setEni(String Eni)
Eni - 该字段已下线,请使用字段Datasourcepublic String getIsLocal()
public void setIsLocal(String IsLocal)
IsLocal - spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)public String getMainClass()
public void setMainClass(String MainClass)
MainClass - spark作业主类public String getAppConf()
public void setAppConf(String AppConf)
AppConf - spark配置,以换行符分隔public String getIsLocalJars()
public void setIsLocalJars(String IsLocalJars)
IsLocalJars - spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)public String getAppJars()
public void setAppJars(String AppJars)
AppJars - spark 作业依赖jar包(--jars),以逗号分隔public String getIsLocalFiles()
public void setIsLocalFiles(String IsLocalFiles)
IsLocalFiles - spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)public String getAppFiles()
public void setAppFiles(String AppFiles)
AppFiles - spark作业依赖文件资源(--files)(非jar、zip),以逗号分隔public String getCmdArgs()
public void setCmdArgs(String CmdArgs)
CmdArgs - spark作业程序入参,空格分割public Long getMaxRetries()
public void setMaxRetries(Long MaxRetries)
MaxRetries - 最大重试次数,只对spark流任务生效public String getDataSource()
public void setDataSource(String DataSource)
DataSource - 数据源名称public String getIsLocalPythonFiles()
public void setIsLocalPythonFiles(String IsLocalPythonFiles)
IsLocalPythonFiles - pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)public String getAppPythonFiles()
public void setAppPythonFiles(String AppPythonFiles)
AppPythonFiles - pyspark作业依赖python资源(--py-files),支持py/zip/egg等归档格式,多文件以逗号分隔public String getIsLocalArchives()
public void setIsLocalArchives(String IsLocalArchives)
IsLocalArchives - spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)public String getAppArchives()
public void setAppArchives(String AppArchives)
AppArchives - spark作业依赖archives资源(--archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔public String getSparkImage()
public void setSparkImage(String SparkImage)
SparkImage - Spark Image 版本号public String getSparkImageVersion()
public void setSparkImageVersion(String SparkImageVersion)
SparkImageVersion - Spark Image 版本名称public Long getAppExecutorMaxNumbers()
public void setAppExecutorMaxNumbers(Long AppExecutorMaxNumbers)
AppExecutorMaxNumbers - 指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNumspublic String getSessionId()
public void setSessionId(String SessionId)
SessionId - 关联dlc查询脚本idpublic Long getIsInherit()
public void setIsInherit(Long IsInherit)
IsInherit - 任务资源配置是否继承集群模板,0(默认)不继承,1:继承public Boolean getIsSessionStarted()
public void setIsSessionStarted(Boolean IsSessionStarted)
IsSessionStarted - 是否使用session脚本的sql运行任务:false:否,true:是public DependencyPackage[] getDependencyPackages()
public void setDependencyPackages(DependencyPackage[] DependencyPackages)
DependencyPackages - 依赖包信息Copyright © 2025. All rights reserved.