datakomarov commited on
Commit
2c92e4b
·
verified ·
1 Parent(s): 5c5b48c

Моё описание

Browse files
Files changed (1) hide show
  1. README.md +19 -33
README.md CHANGED
@@ -13,36 +13,22 @@ tags:
13
  - leaderboard
14
  ---
15
 
16
- # Start the configuration
17
-
18
- Most of the variables to change for a default leaderboard are in `src/env.py` (replace the path for your leaderboard) and `src/about.py` (for tasks).
19
-
20
- Results files should have the following format and be stored as json files:
21
- ```json
22
- {
23
- "config": {
24
- "model_dtype": "torch.float16", # or torch.bfloat16 or 8bit or 4bit
25
- "model_name": "path of the model on the hub: org/model",
26
- "model_sha": "revision on the hub",
27
- },
28
- "results": {
29
- "task_name": {
30
- "metric_name": score,
31
- },
32
- "task_name2": {
33
- "metric_name": score,
34
- }
35
- }
36
- }
37
- ```
38
-
39
- Request files are created automatically by this tool.
40
-
41
- If you encounter problem on the space, don't hesitate to restart it to remove the create eval-queue, eval-queue-bk, eval-results and eval-results-bk created folder.
42
-
43
- # Code logic for more complex edits
44
-
45
- You'll find
46
- - the main table' columns names and properties in `src/display/utils.py`
47
- - the logic to read all results and request files, then convert them in dataframe lines, in `src/leaderboard/read_evals.py`, and `src/populate.py`
48
- - the logic to allow or filter submissions in `src/submission/submit.py` and `src/submission/check_validity.py`
 
13
  - leaderboard
14
  ---
15
 
16
+ # 1. Выгрузите тестовые файлы
17
+
18
+ Этот лидерборд содержит тестовые файлы нескольких версий.
19
+
20
+ Версия "Дракон" лежит в `/data`.
21
+
22
+ Вы найдете 2 папки, `5` и `600`, названных по количеству тестовых примеров. В каждой папке есть файл `corpus.jsonl`, где содержатся JSON записи текстов, и
23
+
24
+ `questions_public.jsonl` с вопросами к этим текстам.
25
+
26
+ # 2. Используйте свой RAG, чтобы ответить на вопросы
27
+
28
+ Ответы вашего RAG отформатируйте подобно примеру в `example/5/corr_answers.jsonl`.
29
+
30
+ # 3. Загрузите полученный JSONL в качестве сабмита
31
+
32
+ # 4. Места в лидерборде выдаются в соответствии с количеством неправильных (0) и правильных (2) ответов, а также общего количества отвеченных вопросов
33
+
34
+ Файлы ЛБ можно использовать для локальной валидации вашего RAG.