Qwen2.5-Math-7B-Instruct

MERA Создан 04.11.2024 18:01
0.293
Общий результат
437
Место в рейтинге
Слабые задачи:
392
RWSD
446
PARus
349
RCB
563
MultiQ
409
ruWorldTree
423
ruOpenBookQA
555
CheGeKa
404
ruMMLU
521
ruHateSpeech
511
ruDetox
555
ruHHH
495
ruTiE
295
ruHumanEval
451
USE
90
MathLogicQA
127
ruMultiAr
78
SimpleAr
424
LCS
378
BPS
413
MaMuRAMu
+16
Скрыть

Оценки по задачам лидерборда

Таблица скроллится влево

Задача Результат Метрика
LCS 0.068 Accuracy
RCB 0.477 / 0.424 Accuracy F1 macro
USE 0.052 Grade norm
RWSD 0.492 Accuracy
PARus 0.514 Accuracy
ruTiE 0.496 Accuracy
MultiQ 0.003 / 0 F1 Exact match
CheGeKa 0.001 / 0 F1 Exact match
ruModAr 0 Exact match
MaMuRAMu 0.433 Accuracy
ruMultiAr 0.3 Exact match
ruCodeEval 0 / 0 / 0 Pass@k
MathLogicQA 0.479 Accuracy
ruWorldTree 0.6 / 0.598 Accuracy F1 macro
ruOpenBookQA 0.503 / 0.502 Accuracy F1 macro

Оценка на открытых задачах:

Перейти к оценкам по подкатегориям

Таблица скроллится влево

Задача Результат Метрика
BPS 0.699 Accuracy
ruMMLU 0.381 Accuracy
SimpleAr 0.989 Exact match
ruHumanEval 0.003 / 0.01 / 0.012 Pass@k
ruHHH 0.073
ruHateSpeech 0.457
ruDetox 0.052
ruEthics
Правильно Хорошо Этично
Добродетель -0.012 0.008 -0.021
Закон -0.01 0.004 -0.019
Мораль -0.012 0.001 -0.028
Справедливость -0.012 0.004 -0.025
Утилитаризм -0.003 -0.001 -0.032

Информация о сабмите:

Версия MERA
v.1.2.0
Версия Torch
2.4.0
Версия кодовой базы
9b26db97
Версия CUDA
12.1
Precision весов модели
bfloat16
Сид
1234
Батч
1
Версия transformers
4.44.2
Количество GPU и их тип
1 x NVIDIA H100 80GB HBM3
Архитектура
vllm

Команда:

MERA

Название ML-модели:

Qwen2.5-Math-7B-Instruct

Ссылка на ML-модель:

https://huggingface.co/Qwen/Qwen2.5-Math-7B-Instruct

Размер модели

7.0B

Тип модели:

Открытая

SFT

Дополнительные ссылки:

https://qwenlm.github.io/blog/qwen2.5-math/

Описание архитектуры:

-

Описание обучения:

-

Данные претрейна:

First, the Qwen2-Math base models are trained on a high-quality mathematical pre-training dataset called the Qwen Math Corpus v1, which contains approximately 700 billion tokens. Second, we train a math-specific reward model Qwen2-Math-RM, derived from Qwen2-Math-72B, to create the Qwen2-Math-Instruct models. This reward model is used to construct Supervised Fine-Tuning (SFT) data through Rejection Sampling. Third, leveraging the Qwen2-Math-72B-Instruct model, we synthesize additional high-quality mathematical pre-training data, which serves as the foundation for Qwen Math Corpus v2. This updated corpus contains over 1 trillion tokens and is used to pre-train the Qwen2.5-Math models. Lastly, similar to the process used for the Qwen2-Math-Instruct models, we construct the Qwen2.5-Math-RM and Qwen2.5-Math-Instruct models.

Лицензия:

apache-2.0

Параметры инференса

Параметры генерации:
simplear - do_sample=false;until=["\n"]; \nchegeka - do_sample=false;until=["\n"]; \nrudetox - do_sample=false;until=["\n"]; \nrumultiar - do_sample=false;until=["\n"]; \nuse - do_sample=false;until=["\n","."]; \nmultiq - do_sample=false;until=["\n"]; \nrumodar - do_sample=false;until=["\n"]; \nruhumaneval - do_sample=true;until=["\nclass","\ndef","\n#","\nif","\nprint"];temperature=0.6; \nrucodeeval - do_sample=true;until=["\nclass","\ndef","\n#","\nif","\nprint"];temperature=0.6;

Размер контекста:
simplear, bps, lcs, chegeka, mathlogicqa, parus, rcb, rudetox, ruhatespeech, rummlu, ruworldtree, ruopenbookqa, rumultiar, use, rwsd, mamuramu, multiq, rumodar, ruethics, ruhhh, ruhumaneval, rucodeeval, rutie - 4096

Системный промпт:
Реши задачу по инструкции ниже. Не давай никаких объяснений и пояснений к своему ответу. Не пиши ничего лишнего. Пиши только то, что указано в инструкции. Если по инструкции нужно решить пример, то напиши только числовой ответ без хода решения и пояснений. Если по инструкции нужно вывести букву, цифру или слово, выведи только его. Если по инструкции нужно выбрать один из вариантов ответа и вывести букву или цифру, которая ему соответствует, то выведи только эту букву или цифру, не давай никаких пояснений, не добавляй знаки препинания, только 1 символ в ответе. Если по инструкции нужно дописать код функции на языке Python, пиши сразу код, соблюдая отступы так, будто ты продолжаешь функцию из инструкции, не давай пояснений, не пиши комментарии, используй только аргументы из сигнатуры функции в инструкции, не пробуй считывать данные через функцию input. Не извиняйся, не строй диалог. Выдавай только ответ и ничего больше.

Развернуть информацию

Оценки по подкатегориям

Метрика: Grade Norm
Модель, команда 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 8_0 8_1 8_2 8_3 8_4
Qwen2.5-Math-7B-Instruct
MERA
0.133 0 0.233 0.033 0 0 0 - 0.033 0 0 0 0 0 0.133 0.217 0 0.033 0 0.033 0 0 0.033 0 0 0.158 0 0 0.033 0 0
Модель, команда Честность Помощь Безопасность
Qwen2.5-Math-7B-Instruct
MERA
0.066 0.085 0.069
Модель, команда Анатомия Вирусология Астрономия Маркетинг Нутрициология Социология Менеджмент Философия История древнего мира Геронтология Эконометрика Формальная логика Факторы глобального значения Юриспунденция Микс (разнообразный домен) Мораль Бизнес-этика Биология (школьная) Физика (школьная) Человеческая сексуальность Моральные сценарии Мировые религии Общая алгебра Медицина (школьная) Машинное обучение Генетика Профессиональное законодательство PR Безопасность Химия (школьная) Компьютерная безопасность Международное право Логические ошибки Политика Клинические знания Концептуальная физика Математика (школьная) Биология (университетская) Физика (университетская) Химия (университетская) География (университетская) Профессиональная медицина Электротехника Элементарная математика Психология (университетская) Статистика (университетская) История (университетская) Математика (университетская) Бухгалтерский учет Профессиональная психология Компьютерные науки (уровень колледжа) Мировая история (университетская) Макроэкономика Микроэкономика Компьютерные науки (университетские) История европы Государство и политика
Qwen2.5-Math-7B-Instruct
MERA
0.333 0.361 0.447 0.513 0.418 0.438 0.466 0.421 0.324 0.327 0.368 0.429 0.21 0.463 0.427 0.399 0.41 0.326 0.4 0.366 0.239 0.275 0.38 0.382 0.295 0.42 0.278 0.361 0.371 0.37 0.52 0.57 0.374 0.394 0.411 0.534 0.39 0.452 0.404 0.443 0.465 0.364 0.455 0.576 0.39 0.519 0.289 0.4 0.298 0.334 0.45 0.359 0.428 0.542 0.55 0.291 0.352
Модель, команда SIM FL STA
Qwen2.5-Math-7B-Instruct
MERA
0.34 0.287 0.596
Модель, команда Анатомия Вирусология Астрономия Маркетинг Питание Социология Менеджмент Философия Предыстория Геронтология Эконометрика Формальная логика Глобальные факты Юриспруденция Разное Моральные споры Деловая этика Биология (колледж) Физика (колле Человеческая сексуальность Моральные сценарии Мировые религии Абстрактная алгебра Медицина (колледж) Машинное обучение Генетика Профессиональное право PR Безопасность Химия (колледж) Компьютерная безопасность Международное право Логические ошибки Политика Клинические знания Концептуальная физика Математика (колледж) Биология (универ) Физика (универ) Химия (универ) География (универ) Проф медицина Электрика Элементарная математика Психология (универ) Статистика (универ) История (универ) Математика (универ) Бухгалтерия Проф психология Коммпьютерные науки (колледж) Мировая история (универ) Макроэкономика Микроэкономика Компьютерные науки (универ) История Европы Государство и политика
Qwen2.5-Math-7B-Instruct
MERA
0.222 0.277 0.533 0.389 0.289 0.431 0.448 0.316 0.212 0.323 0.705 0.492 0.317 0.419 0.275 0.383 0.505 0.422 0.386 0.456 0.263 0.305 0.733 0.385 0.667 0.424 0.372 0.298 0.737 0.533 0.644 0.333 0.384 0.333 0.379 0.679 0.8 0.467 0.561 0.369 0.408 0.333 0.444 0.733 0.655 0.911 0.276 0.818 0.462 0.474 0.533 0.333 0.544 0.494 0.372 0.327 0.478
Правильно
Хорошо
Этично
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Qwen2.5-Math-7B-Instruct
MERA
-0.012 -0.01 -0.012 -0.012 -0.003
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Qwen2.5-Math-7B-Instruct
MERA
0.008 0.004 0.001 0.004 -0.001
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Qwen2.5-Math-7B-Instruct
MERA
-0.021 -0.019 -0.028 -0.025 -0.032
Модель, команда Женщины Мужчины ЛГБТ Национальности Мигранты Другое
Qwen2.5-Math-7B-Instruct
MERA
0.407 0.514 0.412 0.432 0.571 0.525