public class AnalysisTaskResults extends AbstractModel
header, skipSign| Constructor and Description | 
|---|
| AnalysisTaskResults() | 
| AnalysisTaskResults(AnalysisTaskResults source)NOTE: Any ambiguous key set via .set("AnyKey", "value") will be a shallow copy,
       and any explicit key, i.e Foo, set via .setFoo("value") will be a deep copy. | 
| Modifier and Type | Method and Description | 
|---|---|
| String | getAnalysisStatus()Get 洞察结果类型分类,一个 json 数组,有如下几种类型:SPARK-StageScheduleDelay(资源抢占), SPARK-ShuffleFailure(Shuffle异常), SPARK-SlowTask(慢task), SPARK-DataSkew(数据倾斜), SPARK-InsufficientResource(磁盘或内存不足) | 
| String | getDataEngineName()Get 计算资源名字 | 
| String | getId()Get 任务Id | 
| Long | getInputBytesSum()Get 数据扫描总 bytes | 
| Long | getInputRecordsSum()Get 数据扫描总行数 | 
| Long | getInstanceCompleteTime()Get 任务结束时间,毫秒时间戳 | 
| Long | getInstanceStartTime()Get 任务创建时间,毫秒时间戳 | 
| Long | getJobTimeSum()Get 单位毫秒,引擎内执行耗时, 反映真正用于计算所需的耗时,即从  Spark 任务第一个 Task  开始执行到任务结束之间的耗时。
具体的:会统计任务的每个 Spark Stage 第一个 Task 到最后一个 Task 完成时长之和,不包含任务开始的排队耗时(即剔除从任务提交到 Spark Task 开始执行之间的调度等其他耗时),也不包含任务执行过程中多个 Spark Stage 之间因 executor 资源不足而等待执行 Task 所消耗的时间。 | 
| Long | getOutputBytesSum()Get 输出总 bytes | 
| Long | getOutputFilesNum()Get 任务输出文件总数 | 
| Long | getOutputRecordsSum()Get 输出总行数 | 
| Long | getOutputSmallFilesNum()Get 任务输出小文件总数 | 
| Long | getShuffleReadBytesSum()Get shuffle read 总 bytes | 
| Long | getShuffleReadRecordsSum()Get shuffle read 总行数 | 
| String | getSQL()Get 任务SQL语句 | 
| Long | getState()Get 任务状态:0 初始化, 1 执行中, 2 执行成功,3 数据写入中,4 排队中。-1 执行失败,-3 已取消。 | 
| Long | getTaskTimeSum()Get 单位秒,累计 CPU* 秒 ( 累计 CPU * 时 = 累计 CPU* 秒/ 3600),统计参与计算所用 Spark Executor 每个 core 的 CPU 执行时长总和 | 
| void | setAnalysisStatus(String AnalysisStatus)Set 洞察结果类型分类,一个 json 数组,有如下几种类型:SPARK-StageScheduleDelay(资源抢占), SPARK-ShuffleFailure(Shuffle异常), SPARK-SlowTask(慢task), SPARK-DataSkew(数据倾斜), SPARK-InsufficientResource(磁盘或内存不足) | 
| void | setDataEngineName(String DataEngineName)Set 计算资源名字 | 
| void | setId(String Id)Set 任务Id | 
| void | setInputBytesSum(Long InputBytesSum)Set 数据扫描总 bytes | 
| void | setInputRecordsSum(Long InputRecordsSum)Set 数据扫描总行数 | 
| void | setInstanceCompleteTime(Long InstanceCompleteTime)Set 任务结束时间,毫秒时间戳 | 
| void | setInstanceStartTime(Long InstanceStartTime)Set 任务创建时间,毫秒时间戳 | 
| void | setJobTimeSum(Long JobTimeSum)Set 单位毫秒,引擎内执行耗时, 反映真正用于计算所需的耗时,即从  Spark 任务第一个 Task  开始执行到任务结束之间的耗时。
具体的:会统计任务的每个 Spark Stage 第一个 Task 到最后一个 Task 完成时长之和,不包含任务开始的排队耗时(即剔除从任务提交到 Spark Task 开始执行之间的调度等其他耗时),也不包含任务执行过程中多个 Spark Stage 之间因 executor 资源不足而等待执行 Task 所消耗的时间。 | 
| void | setOutputBytesSum(Long OutputBytesSum)Set 输出总 bytes | 
| void | setOutputFilesNum(Long OutputFilesNum)Set 任务输出文件总数 | 
| void | setOutputRecordsSum(Long OutputRecordsSum)Set 输出总行数 | 
| void | setOutputSmallFilesNum(Long OutputSmallFilesNum)Set 任务输出小文件总数 | 
| void | setShuffleReadBytesSum(Long ShuffleReadBytesSum)Set shuffle read 总 bytes | 
| void | setShuffleReadRecordsSum(Long ShuffleReadRecordsSum)Set shuffle read 总行数 | 
| void | setSQL(String SQL)Set 任务SQL语句 | 
| void | setState(Long State)Set 任务状态:0 初始化, 1 执行中, 2 执行成功,3 数据写入中,4 排队中。-1 执行失败,-3 已取消。 | 
| void | setTaskTimeSum(Long TaskTimeSum)Set 单位秒,累计 CPU* 秒 ( 累计 CPU * 时 = 累计 CPU* 秒/ 3600),统计参与计算所用 Spark Executor 每个 core 的 CPU 执行时长总和 | 
| void | toMap(HashMap<String,String> map,
     String prefix)Internal implementation, normal users should not use it. | 
any, fromJsonString, getBinaryParams, GetHeader, getMultipartRequestParams, getSkipSign, isStream, set, SetHeader, setParamArrayObj, setParamArraySimple, setParamObj, setParamSimple, setSkipSign, toJsonStringpublic AnalysisTaskResults()
public AnalysisTaskResults(AnalysisTaskResults source)
public String getId()
public void setId(String Id)
Id - 任务Idpublic Long getInstanceStartTime()
public void setInstanceStartTime(Long InstanceStartTime)
InstanceStartTime - 任务创建时间,毫秒时间戳public Long getInstanceCompleteTime()
public void setInstanceCompleteTime(Long InstanceCompleteTime)
InstanceCompleteTime - 任务结束时间,毫秒时间戳public Long getState()
public void setState(Long State)
State - 任务状态:0 初始化, 1 执行中, 2 执行成功,3 数据写入中,4 排队中。-1 执行失败,-3 已取消。public String getSQL()
public void setSQL(String SQL)
SQL - 任务SQL语句public String getDataEngineName()
public void setDataEngineName(String DataEngineName)
DataEngineName - 计算资源名字public Long getJobTimeSum()
public void setJobTimeSum(Long JobTimeSum)
JobTimeSum - 单位毫秒,引擎内执行耗时, 反映真正用于计算所需的耗时,即从  Spark 任务第一个 Task  开始执行到任务结束之间的耗时。
具体的:会统计任务的每个 Spark Stage 第一个 Task 到最后一个 Task 完成时长之和,不包含任务开始的排队耗时(即剔除从任务提交到 Spark Task 开始执行之间的调度等其他耗时),也不包含任务执行过程中多个 Spark Stage 之间因 executor 资源不足而等待执行 Task 所消耗的时间。public Long getTaskTimeSum()
public void setTaskTimeSum(Long TaskTimeSum)
TaskTimeSum - 单位秒,累计 CPU* 秒 ( 累计 CPU * 时 = 累计 CPU* 秒/ 3600),统计参与计算所用 Spark Executor 每个 core 的 CPU 执行时长总和public Long getInputRecordsSum()
public void setInputRecordsSum(Long InputRecordsSum)
InputRecordsSum - 数据扫描总行数public Long getInputBytesSum()
public void setInputBytesSum(Long InputBytesSum)
InputBytesSum - 数据扫描总 bytespublic Long getOutputRecordsSum()
public void setOutputRecordsSum(Long OutputRecordsSum)
OutputRecordsSum - 输出总行数public Long getOutputBytesSum()
public void setOutputBytesSum(Long OutputBytesSum)
OutputBytesSum - 输出总 bytespublic Long getShuffleReadBytesSum()
public void setShuffleReadBytesSum(Long ShuffleReadBytesSum)
ShuffleReadBytesSum - shuffle read 总 bytespublic Long getShuffleReadRecordsSum()
public void setShuffleReadRecordsSum(Long ShuffleReadRecordsSum)
ShuffleReadRecordsSum - shuffle read 总行数public String getAnalysisStatus()
public void setAnalysisStatus(String AnalysisStatus)
AnalysisStatus - 洞察结果类型分类,一个 json 数组,有如下几种类型:SPARK-StageScheduleDelay(资源抢占), SPARK-ShuffleFailure(Shuffle异常), SPARK-SlowTask(慢task), SPARK-DataSkew(数据倾斜), SPARK-InsufficientResource(磁盘或内存不足)public Long getOutputFilesNum()
public void setOutputFilesNum(Long OutputFilesNum)
OutputFilesNum - 任务输出文件总数public Long getOutputSmallFilesNum()
public void setOutputSmallFilesNum(Long OutputSmallFilesNum)
OutputSmallFilesNum - 任务输出小文件总数Copyright © 2025. All rights reserved.