|
# 结果展示 |
|
|
|
在评测完成后,评测的结果需要被打印到屏幕或者被保存下来,该过程是由 summarizer 控制的。 |
|
|
|
```{note} |
|
如果 summarizer 出现在了 config 中,则评测结果输出会按照下述逻辑进行。 |
|
如果 summarizer 没有出现在 config 中,则评测结果会按照 `dataset` 中出现的顺序进行输出。 |
|
``` |
|
|
|
## 样例 |
|
|
|
一个典型的 summerizer 配置文件如下: |
|
|
|
```python |
|
summarizer = dict( |
|
dataset_abbrs = [ |
|
'race', |
|
'race-high', |
|
'race-middle', |
|
], |
|
summary_groups=[ |
|
{'name': 'race', 'subsets': ['race-high', 'race-middle']}, |
|
] |
|
) |
|
``` |
|
|
|
其输出结果如下: |
|
|
|
```text |
|
dataset version metric mode internlm-7b-hf |
|
----------- --------- ------------- ------ ---------------- |
|
race - naive_average ppl 76.23 |
|
race-high 0c332f accuracy ppl 74.53 |
|
race-middle 0c332f accuracy ppl 77.92 |
|
``` |
|
|
|
summarizer 会以 config 中的 `models`, `datasets` 为全集,去尝试读取 `{work_dir}/results/` 路径下的评测分数,并按照 `summarizer.dataset_abbrs` 列表的顺序进行展示。另外,summarizer 会尝试通过 `summarizer.summary_groups` 来进行一些汇总指标的计算。当且仅当 `subsets` 中的值都存在时,对应的 `name` 指标才会生成,这也就是说,若有部分数字缺失,则这个汇总指标也是会缺失的。若分数无法通过上述两种方式被获取到,则 summarizer 会在表格中对应项处使用 `-` 进行表示。 |
|
|
|
此外,输出结果是有多列的: |
|
|
|
- `dataset` 列与 `summarizer.dataset_abbrs` 配置一一对应 |
|
- `version` 列是这个数据集的 hash 值,该 hash 值会考虑该数据集模板的评测方式、提示词、输出长度限制等信息。用户可通过该列信息确认两份评测结果是否可比 |
|
- `metric` 列是指这个指标的评测方式,具体说明见 [metrics](./metrics.md) |
|
- `mode` 列是指这个推理结果的获取方式,可能的值有 `ppl` / `gen`。对于 `summarizer.summary_groups` 的项,若被 `subsets` 的获取方式都一致,则其值也跟 `subsets` 一致,否则即为 `mixed` |
|
- 其后若干列,一列代表一个模型 |
|
|
|
## 完整字段说明 |
|
|
|
summarizer 字段说明如下 |
|
|
|
- `dataset_abbrs`: (list,可选) 展示列表项。若该项省略,则会输出全部评测结果。 |
|
- `summary_groups`: (list,可选) 汇总指标配置。 |
|
|
|
`summary_groups` 中的字段说明如下: |
|
|
|
- `name`: (str) 汇总指标的名称。 |
|
- `subsets`: (list) 被汇总指标的名称。注意它不止可以是原始的 `dataset_abbr`,也可以是另一个汇总指标的名称。 |
|
- `weights`: (list,可选) 被汇总指标的权重。若该项省略,则默认使用不加权的求平均方法。 |
|
|
|
注意,我们在 `configs/summarizers/groups` 路径下存放了 MMLU, C-Eval 等数据集的评测结果汇总,建议优先考虑使用。 |
|
|