| Package | Description |
|---|---|
| com.tencentcloudapi.dlc.v20210125.models |
| Modifier and Type | Method and Description |
|---|---|
KVPair[] |
NotebookSessionInfo.getAppInfo()
Get 其它信息
注意:此字段可能返回 null,表示取不到有效值。
|
KVPair[] |
NotebookSessionInfo.getArguments()
Get Session相关配置,当前支持:eni、roleArn以及用户指定的配置
注意:此字段可能返回 null,表示取不到有效值。
|
KVPair[] |
CreateNotebookSessionRequest.getArguments()
Get Session相关配置,当前支持:
1.
|
KVPair[] |
CreateSparkSessionBatchSQLRequest.getArguments()
Get Session相关配置,当前支持:1.dlc.eni:用户配置的eni网关信息,可以用过该字段设置;
2.dlc.role.arn:用户配置的roleArn鉴权策略配置信息,可以用过该字段设置;
3.dlc.sql.set.config:用户配置的集群配置信息,可以用过该字段设置;
|
KVPair[] |
Asset.getBizParams()
Get 附加业务属性
|
KVPair[] |
DMSColumn.getBizParams()
Get 业务参数
注意:此字段可能返回 null,表示取不到有效值。
|
KVPair[] |
CreateSparkSubmitTaskRequest.getCmdArgs()
Get 提交任务的附加配置集合,当前支持Key包含:MAINARGS:程序入口参数,空格分割(SqlType任务通过该值指定base64加密后的sql)、SPARKCONFIG:Spark配置,以换行符分隔、ENI:Eni连接信息、DEPENDENCYPACKAGEPATH:依赖的程序包(--jars、--py-files:支持py/zip/egg等归档格式),多文件以逗号分隔、DEPENDENCYFILEPATH:依赖文件资源(--files: 非jar、zip),多文件以逗号分隔、DEPENDENCYARCHIVESPATH:依赖archives资源(--archives: 支持tar.gz/tgz/tar等归档格式),多文件以逗号分隔、MAXRETRIES:任务重试次数,非流任务默认为1、SPARKIMAGE:Spark镜像版本号,支持使用dlc镜像/用户自定的tcr镜像运行任务、SPARKIMAGEVERSION:Spark镜像版本名称,与SPARKIMAGE一一对应;SPARKPRESETCODE:base64后的notebook预置代码;SPARKENV:base64后的spark环境变量;SPARKGITINFO:base64后的git相关信息
|
KVPair[] |
TasksInfo.getConfig()
Get 任务的配置信息,当前仅支持SparkSQLTask任务。
|
KVPair[] |
SQLTask.getConfig()
Get 任务的配置信息
|
KVPair[] |
CancelTasksRequest.getConfig()
Get 配置信息,key-value数组,对外不可见。key1:AuthorityRole(鉴权角色,默认传SubUin,base64加密,仅在jdbc提交任务时使用)
|
KVPair[] |
StatementOutput.getData()
Get Statement数据
注意:此字段可能返回 null,表示取不到有效值。
|
KVPair |
DropDMSTableRequest.getEnvProps()
Get 环境属性
|
KVPair[] |
CreateExportTaskRequest.getInputConf()
Get 导出任务输入配置
|
KVPair[] |
CreateImportTaskRequest.getInputConf()
Get 输入配置
|
KVPair[] |
CreateExportTaskRequest.getOutputConf()
Get 导出任务输出配置
|
KVPair[] |
CreateImportTaskRequest.getOutputConf()
Get 输出配置
|
KVPair[] |
DMSPartition.getParams()
Get 附件属性
|
KVPair[] |
TasksInfo.getParams()
Get 任务的用户自定义参数信息
|
KVPair[] |
DMSSds.getParams()
Get 附加参数
注意:此字段可能返回 null,表示取不到有效值。
|
KVPair[] |
Asset.getParams()
Get 附加属性
|
KVPair[] |
DMSColumn.getParams()
Get 附加参数
注意:此字段可能返回 null,表示取不到有效值。
|
KVPair[] |
Asset.getPermValues()
Get 权限
|
KVPair[] |
DMSSds.getSerdeParams()
Get 序列化参数
注意:此字段可能返回 null,表示取不到有效值。
|
KVPair[] |
CreateSparkAppTaskRequest.getSourceInfo()
Get 任务来源信息
|
KVPair[] |
CreateSparkSubmitTaskRequest.getSourceInfo()
Get 任务来源信息
|
KVPair[] |
CreateTaskRequest.getSourceInfo()
Get 任务来源信息
|
KVPair[] |
CreateTasksRequest.getSourceInfo()
Get 任务来源信息
|
KVPair[] |
CreateSparkSessionBatchSQLRequest.getSourceInfo()
Get 任务来源信息
|
KVPair[] |
SparkSessionBatchLogOperate.getSupplement()
Get 补充信息:如:taskid、sessionid、sparkui等
注意:此字段可能返回 null,表示取不到有效值。
|
| Modifier and Type | Method and Description |
|---|---|
void |
NotebookSessionInfo.setAppInfo(KVPair[] AppInfo)
Set 其它信息
注意:此字段可能返回 null,表示取不到有效值。
|
void |
NotebookSessionInfo.setArguments(KVPair[] Arguments)
Set Session相关配置,当前支持:eni、roleArn以及用户指定的配置
注意:此字段可能返回 null,表示取不到有效值。
|
void |
CreateNotebookSessionRequest.setArguments(KVPair[] Arguments)
Set Session相关配置,当前支持:
1.
|
void |
CreateSparkSessionBatchSQLRequest.setArguments(KVPair[] Arguments)
Set Session相关配置,当前支持:1.dlc.eni:用户配置的eni网关信息,可以用过该字段设置;
2.dlc.role.arn:用户配置的roleArn鉴权策略配置信息,可以用过该字段设置;
3.dlc.sql.set.config:用户配置的集群配置信息,可以用过该字段设置;
|
void |
Asset.setBizParams(KVPair[] BizParams)
Set 附加业务属性
|
void |
DMSColumn.setBizParams(KVPair[] BizParams)
Set 业务参数
注意:此字段可能返回 null,表示取不到有效值。
|
void |
CreateSparkSubmitTaskRequest.setCmdArgs(KVPair[] CmdArgs)
Set 提交任务的附加配置集合,当前支持Key包含:MAINARGS:程序入口参数,空格分割(SqlType任务通过该值指定base64加密后的sql)、SPARKCONFIG:Spark配置,以换行符分隔、ENI:Eni连接信息、DEPENDENCYPACKAGEPATH:依赖的程序包(--jars、--py-files:支持py/zip/egg等归档格式),多文件以逗号分隔、DEPENDENCYFILEPATH:依赖文件资源(--files: 非jar、zip),多文件以逗号分隔、DEPENDENCYARCHIVESPATH:依赖archives资源(--archives: 支持tar.gz/tgz/tar等归档格式),多文件以逗号分隔、MAXRETRIES:任务重试次数,非流任务默认为1、SPARKIMAGE:Spark镜像版本号,支持使用dlc镜像/用户自定的tcr镜像运行任务、SPARKIMAGEVERSION:Spark镜像版本名称,与SPARKIMAGE一一对应;SPARKPRESETCODE:base64后的notebook预置代码;SPARKENV:base64后的spark环境变量;SPARKGITINFO:base64后的git相关信息
|
void |
TasksInfo.setConfig(KVPair[] Config)
Set 任务的配置信息,当前仅支持SparkSQLTask任务。
|
void |
SQLTask.setConfig(KVPair[] Config)
Set 任务的配置信息
|
void |
CancelTasksRequest.setConfig(KVPair[] Config)
Set 配置信息,key-value数组,对外不可见。key1:AuthorityRole(鉴权角色,默认传SubUin,base64加密,仅在jdbc提交任务时使用)
|
void |
StatementOutput.setData(KVPair[] Data)
Set Statement数据
注意:此字段可能返回 null,表示取不到有效值。
|
void |
DropDMSTableRequest.setEnvProps(KVPair EnvProps)
Set 环境属性
|
void |
CreateExportTaskRequest.setInputConf(KVPair[] InputConf)
Set 导出任务输入配置
|
void |
CreateImportTaskRequest.setInputConf(KVPair[] InputConf)
Set 输入配置
|
void |
CreateExportTaskRequest.setOutputConf(KVPair[] OutputConf)
Set 导出任务输出配置
|
void |
CreateImportTaskRequest.setOutputConf(KVPair[] OutputConf)
Set 输出配置
|
void |
DMSPartition.setParams(KVPair[] Params)
Set 附件属性
|
void |
TasksInfo.setParams(KVPair[] Params)
Set 任务的用户自定义参数信息
|
void |
DMSSds.setParams(KVPair[] Params)
Set 附加参数
注意:此字段可能返回 null,表示取不到有效值。
|
void |
Asset.setParams(KVPair[] Params)
Set 附加属性
|
void |
DMSColumn.setParams(KVPair[] Params)
Set 附加参数
注意:此字段可能返回 null,表示取不到有效值。
|
void |
Asset.setPermValues(KVPair[] PermValues)
Set 权限
|
void |
DMSSds.setSerdeParams(KVPair[] SerdeParams)
Set 序列化参数
注意:此字段可能返回 null,表示取不到有效值。
|
void |
CreateSparkAppTaskRequest.setSourceInfo(KVPair[] SourceInfo)
Set 任务来源信息
|
void |
CreateSparkSubmitTaskRequest.setSourceInfo(KVPair[] SourceInfo)
Set 任务来源信息
|
void |
CreateTaskRequest.setSourceInfo(KVPair[] SourceInfo)
Set 任务来源信息
|
void |
CreateTasksRequest.setSourceInfo(KVPair[] SourceInfo)
Set 任务来源信息
|
void |
CreateSparkSessionBatchSQLRequest.setSourceInfo(KVPair[] SourceInfo)
Set 任务来源信息
|
void |
SparkSessionBatchLogOperate.setSupplement(KVPair[] Supplement)
Set 补充信息:如:taskid、sessionid、sparkui等
注意:此字段可能返回 null,表示取不到有效值。
|
| Constructor and Description |
|---|
KVPair(KVPair source)
NOTE: Any ambiguous key set via .set("AnyKey", "value") will be a shallow copy,
and any explicit key, i.e Foo, set via .setFoo("value") will be a deep copy.
|
Copyright © 2025. All rights reserved.