Answer relevancy
评估模块。
AnswerRelevancyEvaluator #
Bases: BaseEvaluator
答案相关性评估器。
评估响应对查询的相关性。 该评估器考虑查询字符串和响应字符串。
Parameters:
Name | Type | Description | Default |
---|---|---|---|
service_context(Optional[ServiceContext]) |
用于评估的服务上下文。 |
required | |
raise_error(Optional[bool]) |
如果响应无效是否引发错误。 默认为False。 |
required | |
eval_template(Optional[Union[str, |
BasePromptTemplate]]
|
用于评估的模板。 |
required |
refine_template(Optional[Union[str, |
BasePromptTemplate]]
|
用于改进的模板。 |
required |
Source code in llama_index/core/evaluation/answer_relevancy.py
49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 |
|
aevaluate
async
#
aevaluate(
query: str | None = None,
response: str | None = None,
contexts: Sequence[str] | None = None,
sleep_time_in_seconds: int = 0,
**kwargs: Any
) -> EvaluationResult
评估响应是否与查询相关。
Source code in llama_index/core/evaluation/answer_relevancy.py
105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 |
|