Metrics
评估模块。
MRR #
Bases: BaseRetrievalMetric
MRR(平均倒数排名)指标,具有两种计算选项。
- 默认方法计算第一个相关检索文档的倒数排名。
- 更精细的方法将所有相关检索文档的倒数排名相加,然后除以相关文档的数量。
属性
use_granular_mrr(bool):确定是否使用精细方法进行计算。 metric_name(str):指标的名称。
Source code in llama_index/core/evaluation/retrieval/metrics.py
72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 |
|
compute #
compute(
query: Optional[str] = None,
expected_ids: Optional[List[str]] = None,
retrieved_ids: Optional[List[str]] = None,
expected_texts: Optional[List[str]] = None,
retrieved_texts: Optional[List[str]] = None,
) -> RetrievalMetricResult
根据提供的输入和选择的方法计算MRR。
Raises:
Type | Description |
---|---|
ValueError
|
如果未提供必要的ID。 |
Returns:
Name | Type | Description |
---|---|---|
RetrievalMetricResult |
RetrievalMetricResult
|
计算出的MRR分数的结果。 |
Source code in llama_index/core/evaluation/retrieval/metrics.py
85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 |
|
HitRate #
Bases: BaseRetrievalMetric
命中率指标:使用两种计算选项计算命中率。
- 默认方法检查检索到的任何文档和期望文档之间的单个匹配。
- 更精细的方法检查检索到的文档和期望文档之间的所有潜在匹配。
属性: use_granular_hit_rate(布尔值):确定是否使用更精细的方法进行计算。 metric_name(字符串):指标的名称。
Source code in llama_index/core/evaluation/retrieval/metrics.py
14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 |
|
compute #
compute(
query: Optional[str] = None,
expected_ids: Optional[List[str]] = None,
retrieved_ids: Optional[List[str]] = None,
expected_texts: Optional[List[str]] = None,
retrieved_texts: Optional[List[str]] = None,
) -> RetrievalMetricResult
根据提供的输入计算度量标准。
Parameters:
Name | Type | Description | Default |
---|---|---|---|
query |
可选[str]
|
查询字符串(在当前实现中未使用)。 |
None
|
expected_ids |
可选[List[str]]
|
预期的文档ID。 |
None
|
retrieved_ids |
可选[List[str]]
|
检索到的文档ID。 |
None
|
expected_texts |
可选[List[str]]
|
预期的文本(在当前实现中未使用)。 |
None
|
retrieved_texts |
可选[List[str]]
|
检索到的文本(在当前实现中未使用)。 |
None
|
引发
ValueError: 如果未提供必要的ID。
Returns:
Name | Type | Description |
---|---|---|
RetrievalMetricResult |
RetrievalMetricResult
|
计算得出的命中率分数的结果。 |
Source code in llama_index/core/evaluation/retrieval/metrics.py
27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 |
|
RetrievalMetricResult #
Bases: BaseModel
度量结果。
属性
score (float): 度量的分数 metadata (Dict[str, Any]): 度量结果的元数据
Source code in llama_index/core/evaluation/retrieval/metrics_base.py
7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 |
|
resolve_metrics #
resolve_metrics(
metrics: List[str],
) -> List[Type[BaseRetrievalMetric]]
从指标名称列表中解析指标。
Source code in llama_index/core/evaluation/retrieval/metrics.py
214 215 216 217 218 219 220 |
|