public class AnalysisTaskResults extends AbstractModel
header, skipSign
Constructor and Description |
---|
AnalysisTaskResults() |
AnalysisTaskResults(AnalysisTaskResults source)
NOTE: Any ambiguous key set via .set("AnyKey", "value") will be a shallow copy,
and any explicit key, i.e Foo, set via .setFoo("value") will be a deep copy.
|
Modifier and Type | Method and Description |
---|---|
String |
getAnalysisStatus()
Get 洞察结果类型分类,一个 json 数组,有如下几种类型:SPARK-StageScheduleDelay(资源抢占), SPARK-ShuffleFailure(Shuffle异常), SPARK-SlowTask(慢task), SPARK-DataSkew(数据倾斜), SPARK-InsufficientResource(磁盘或内存不足)
|
String |
getDataEngineName()
Get 计算资源名字
|
String |
getId()
Get 任务Id
|
Long |
getInputBytesSum()
Get 数据扫描总 bytes
|
Long |
getInputRecordsSum()
Get 数据扫描总行数
|
Long |
getInstanceCompleteTime()
Get 任务结束时间,毫秒时间戳
|
Long |
getInstanceStartTime()
Get 任务创建时间,毫秒时间戳
|
Long |
getJobTimeSum()
Get 单位毫秒,引擎内执行耗时, 反映真正用于计算所需的耗时,即从 Spark 任务第一个 Task 开始执行到任务结束之间的耗时。
具体的:会统计任务的每个 Spark Stage 第一个 Task 到最后一个 Task 完成时长之和,不包含任务开始的排队耗时(即剔除从任务提交到 Spark Task 开始执行之间的调度等其他耗时),也不包含任务执行过程中多个 Spark Stage 之间因 executor 资源不足而等待执行 Task 所消耗的时间。
|
Long |
getOutputBytesSum()
Get 输出总 bytes
|
Long |
getOutputFilesNum()
Get 任务输出文件总数
|
Long |
getOutputRecordsSum()
Get 输出总行数
|
Long |
getOutputSmallFilesNum()
Get 任务输出小文件总数
|
Long |
getShuffleReadBytesSum()
Get shuffle read 总 bytes
|
Long |
getShuffleReadRecordsSum()
Get shuffle read 总行数
|
String |
getSQL()
Get 任务SQL语句
|
Long |
getState()
Get 任务状态:0 初始化, 1 执行中, 2 执行成功,3 数据写入中,4 排队中。-1 执行失败,-3 已取消。
|
Long |
getTaskTimeSum()
Get 单位秒,累计 CPU* 秒 ( 累计 CPU * 时 = 累计 CPU* 秒/ 3600),统计参与计算所用 Spark Executor 每个 core 的 CPU 执行时长总和
|
void |
setAnalysisStatus(String AnalysisStatus)
Set 洞察结果类型分类,一个 json 数组,有如下几种类型:SPARK-StageScheduleDelay(资源抢占), SPARK-ShuffleFailure(Shuffle异常), SPARK-SlowTask(慢task), SPARK-DataSkew(数据倾斜), SPARK-InsufficientResource(磁盘或内存不足)
|
void |
setDataEngineName(String DataEngineName)
Set 计算资源名字
|
void |
setId(String Id)
Set 任务Id
|
void |
setInputBytesSum(Long InputBytesSum)
Set 数据扫描总 bytes
|
void |
setInputRecordsSum(Long InputRecordsSum)
Set 数据扫描总行数
|
void |
setInstanceCompleteTime(Long InstanceCompleteTime)
Set 任务结束时间,毫秒时间戳
|
void |
setInstanceStartTime(Long InstanceStartTime)
Set 任务创建时间,毫秒时间戳
|
void |
setJobTimeSum(Long JobTimeSum)
Set 单位毫秒,引擎内执行耗时, 反映真正用于计算所需的耗时,即从 Spark 任务第一个 Task 开始执行到任务结束之间的耗时。
具体的:会统计任务的每个 Spark Stage 第一个 Task 到最后一个 Task 完成时长之和,不包含任务开始的排队耗时(即剔除从任务提交到 Spark Task 开始执行之间的调度等其他耗时),也不包含任务执行过程中多个 Spark Stage 之间因 executor 资源不足而等待执行 Task 所消耗的时间。
|
void |
setOutputBytesSum(Long OutputBytesSum)
Set 输出总 bytes
|
void |
setOutputFilesNum(Long OutputFilesNum)
Set 任务输出文件总数
|
void |
setOutputRecordsSum(Long OutputRecordsSum)
Set 输出总行数
|
void |
setOutputSmallFilesNum(Long OutputSmallFilesNum)
Set 任务输出小文件总数
|
void |
setShuffleReadBytesSum(Long ShuffleReadBytesSum)
Set shuffle read 总 bytes
|
void |
setShuffleReadRecordsSum(Long ShuffleReadRecordsSum)
Set shuffle read 总行数
|
void |
setSQL(String SQL)
Set 任务SQL语句
|
void |
setState(Long State)
Set 任务状态:0 初始化, 1 执行中, 2 执行成功,3 数据写入中,4 排队中。-1 执行失败,-3 已取消。
|
void |
setTaskTimeSum(Long TaskTimeSum)
Set 单位秒,累计 CPU* 秒 ( 累计 CPU * 时 = 累计 CPU* 秒/ 3600),统计参与计算所用 Spark Executor 每个 core 的 CPU 执行时长总和
|
void |
toMap(HashMap<String,String> map,
String prefix)
Internal implementation, normal users should not use it.
|
any, fromJsonString, getBinaryParams, GetHeader, getMultipartRequestParams, getSkipSign, isStream, set, SetHeader, setParamArrayObj, setParamArraySimple, setParamObj, setParamSimple, setSkipSign, toJsonString
public AnalysisTaskResults()
public AnalysisTaskResults(AnalysisTaskResults source)
public String getId()
public void setId(String Id)
Id
- 任务Idpublic Long getInstanceStartTime()
public void setInstanceStartTime(Long InstanceStartTime)
InstanceStartTime
- 任务创建时间,毫秒时间戳public Long getInstanceCompleteTime()
public void setInstanceCompleteTime(Long InstanceCompleteTime)
InstanceCompleteTime
- 任务结束时间,毫秒时间戳public Long getState()
public void setState(Long State)
State
- 任务状态:0 初始化, 1 执行中, 2 执行成功,3 数据写入中,4 排队中。-1 执行失败,-3 已取消。public String getSQL()
public void setSQL(String SQL)
SQL
- 任务SQL语句public String getDataEngineName()
public void setDataEngineName(String DataEngineName)
DataEngineName
- 计算资源名字public Long getJobTimeSum()
public void setJobTimeSum(Long JobTimeSum)
JobTimeSum
- 单位毫秒,引擎内执行耗时, 反映真正用于计算所需的耗时,即从 Spark 任务第一个 Task 开始执行到任务结束之间的耗时。
具体的:会统计任务的每个 Spark Stage 第一个 Task 到最后一个 Task 完成时长之和,不包含任务开始的排队耗时(即剔除从任务提交到 Spark Task 开始执行之间的调度等其他耗时),也不包含任务执行过程中多个 Spark Stage 之间因 executor 资源不足而等待执行 Task 所消耗的时间。public Long getTaskTimeSum()
public void setTaskTimeSum(Long TaskTimeSum)
TaskTimeSum
- 单位秒,累计 CPU* 秒 ( 累计 CPU * 时 = 累计 CPU* 秒/ 3600),统计参与计算所用 Spark Executor 每个 core 的 CPU 执行时长总和public Long getInputRecordsSum()
public void setInputRecordsSum(Long InputRecordsSum)
InputRecordsSum
- 数据扫描总行数public Long getInputBytesSum()
public void setInputBytesSum(Long InputBytesSum)
InputBytesSum
- 数据扫描总 bytespublic Long getOutputRecordsSum()
public void setOutputRecordsSum(Long OutputRecordsSum)
OutputRecordsSum
- 输出总行数public Long getOutputBytesSum()
public void setOutputBytesSum(Long OutputBytesSum)
OutputBytesSum
- 输出总 bytespublic Long getShuffleReadBytesSum()
public void setShuffleReadBytesSum(Long ShuffleReadBytesSum)
ShuffleReadBytesSum
- shuffle read 总 bytespublic Long getShuffleReadRecordsSum()
public void setShuffleReadRecordsSum(Long ShuffleReadRecordsSum)
ShuffleReadRecordsSum
- shuffle read 总行数public String getAnalysisStatus()
public void setAnalysisStatus(String AnalysisStatus)
AnalysisStatus
- 洞察结果类型分类,一个 json 数组,有如下几种类型:SPARK-StageScheduleDelay(资源抢占), SPARK-ShuffleFailure(Shuffle异常), SPARK-SlowTask(慢task), SPARK-DataSkew(数据倾斜), SPARK-InsufficientResource(磁盘或内存不足)public Long getOutputFilesNum()
public void setOutputFilesNum(Long OutputFilesNum)
OutputFilesNum
- 任务输出文件总数public Long getOutputSmallFilesNum()
public void setOutputSmallFilesNum(Long OutputSmallFilesNum)
OutputSmallFilesNum
- 任务输出小文件总数Copyright © 2025. All rights reserved.