public class DetectLiveFaceResponse extends AbstractModel
Constructor and Description |
---|
DetectLiveFaceResponse() |
DetectLiveFaceResponse(DetectLiveFaceResponse source)
NOTE: Any ambiguous key set via .set("AnyKey", "value") will be a shallow copy,
and any explicit key, i.e Foo, set via .setFoo("value") will be a deep copy.
|
Modifier and Type | Method and Description |
---|---|
String |
getFaceModelVersion()
Get 人脸识别所用的算法模型版本。
|
Boolean |
getIsLiveness()
Get 活体检测是否通过。
本字段只有FaceModelVersion为3.0时才具备参考意义。
|
String |
getRequestId()
Get 唯一请求 ID,每次请求都会返回。定位问题时需要提供该次请求的 RequestId。
|
Float |
getScore()
Get 活体打分,取值范围 [0,100],分数一般落于[80, 100]区间内,0分也为常见值。推荐相大于 87 时可判断为活体。可根据具体场景自行调整阈值。
本字段当且仅当FaceModelVersion为2.0时才具备参考意义。
|
void |
setFaceModelVersion(String FaceModelVersion)
Set 人脸识别所用的算法模型版本。
|
void |
setIsLiveness(Boolean IsLiveness)
Set 活体检测是否通过。
本字段只有FaceModelVersion为3.0时才具备参考意义。
|
void |
setRequestId(String RequestId)
Set 唯一请求 ID,每次请求都会返回。定位问题时需要提供该次请求的 RequestId。
|
void |
setScore(Float Score)
Set 活体打分,取值范围 [0,100],分数一般落于[80, 100]区间内,0分也为常见值。推荐相大于 87 时可判断为活体。可根据具体场景自行调整阈值。
本字段当且仅当FaceModelVersion为2.0时才具备参考意义。
|
void |
toMap(HashMap<String,String> map,
String prefix)
Internal implementation, normal users should not use it.
|
any, fromJsonString, getBinaryParams, getMultipartRequestParams, set, setParamArrayObj, setParamArraySimple, setParamObj, setParamSimple, toJsonString
public DetectLiveFaceResponse()
public DetectLiveFaceResponse(DetectLiveFaceResponse source)
public Float getScore()
public void setScore(Float Score)
Score
- 活体打分,取值范围 [0,100],分数一般落于[80, 100]区间内,0分也为常见值。推荐相大于 87 时可判断为活体。可根据具体场景自行调整阈值。
本字段当且仅当FaceModelVersion为2.0时才具备参考意义。public String getFaceModelVersion()
public void setFaceModelVersion(String FaceModelVersion)
FaceModelVersion
- 人脸识别所用的算法模型版本。public Boolean getIsLiveness()
public void setIsLiveness(Boolean IsLiveness)
IsLiveness
- 活体检测是否通过。
本字段只有FaceModelVersion为3.0时才具备参考意义。public String getRequestId()
public void setRequestId(String RequestId)
RequestId
- 唯一请求 ID,每次请求都会返回。定位问题时需要提供该次请求的 RequestId。Copyright © 2022. All rights reserved.