Query response
评估模块。
RelevancyEvaluator #
Bases: BaseEvaluator
相关性评估器。
评估检索到的上下文和对查询的响应的相关性。 该评估器考虑查询字符串、检索到的上下文和响应字符串。
Parameters:
Name | Type | Description | Default |
---|---|---|---|
service_context(Optional[ServiceContext]) |
用于评估的服务上下文。 |
required | |
raise_error(Optional[bool]) |
如果响应无效是否引发错误。 默认为False。 |
required | |
eval_template(Optional[Union[str, |
BasePromptTemplate]]
|
用于评估的模板。 |
required |
refine_template(Optional[Union[str, |
BasePromptTemplate]]
|
用于细化的模板。 |
required |
Source code in llama_index/core/evaluation/relevancy.py
42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 |
|
aevaluate
async
#
aevaluate(
query: str | None = None,
response: str | None = None,
contexts: Sequence[str] | None = None,
sleep_time_in_seconds: int = 0,
**kwargs: Any
) -> EvaluationResult
评估上下文和回复是否与查询相关。
Source code in llama_index/core/evaluation/relevancy.py
98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 |
|