Qwen2.5-Coder-7B-Instruct

MERA Создан 04.11.2024 17:55
0.458
Общий результат
174
Место в рейтинге
Слабые задачи:
500
RWSD
273
PARus
162
RCB
133
ruEthics
168
MultiQ
213
ruWorldTree
233
ruOpenBookQA
321
CheGeKa
251
ruMMLU
128
ruHateSpeech
247
ruDetox
299
ruHHH
141
ruTiE
92
ruHumanEval
146
USE
199
MathLogicQA
110
ruMultiAr
140
SimpleAr
107
LCS
26
BPS
190
ruModAr
243
MaMuRAMu
71
ruCodeEval
+19
Скрыть

Оценки по задачам лидерборда

Таблица скроллится влево

Задача Результат Метрика
LCS 0.136 Accuracy
RCB 0.543 / 0.445 Accuracy F1 macro
USE 0.18 Grade norm
RWSD 0.435 Accuracy
PARus 0.726 Accuracy
ruTiE 0.721 Accuracy
MultiQ 0.399 / 0.302 F1 Exact match
CheGeKa 0.041 / 0.022 F1 Exact match
ruModAr 0.483 Exact match
MaMuRAMu 0.615 Accuracy
ruMultiAr 0.308 Exact match
ruCodeEval 0.207 / 0.412 / 0.494 Pass@k
MathLogicQA 0.416 Accuracy
ruWorldTree 0.865 / 0.865 Accuracy F1 macro
ruOpenBookQA 0.733 / 0.731 Accuracy F1 macro

Оценка на открытых задачах:

Перейти к оценкам по подкатегориям

Таблица скроллится влево

Задача Результат Метрика
BPS 0.994 Accuracy
ruMMLU 0.516 Accuracy
SimpleAr 0.978 Exact match
ruHumanEval 0.173 / 0.357 / 0.427 Pass@k
ruHHH 0.584
ruHateSpeech 0.777
ruDetox 0.161
ruEthics
Правильно Хорошо Этично
Добродетель 0.38 0.372 0.386
Закон 0.369 0.368 0.362
Мораль 0.413 0.388 0.411
Справедливость 0.328 0.296 0.328
Утилитаризм 0.31 0.293 0.369

Информация о сабмите:

Версия MERA
v.1.2.0
Версия Torch
2.4.0
Версия кодовой базы
9b26db97
Версия CUDA
12.1
Precision весов модели
bfloat16
Сид
1234
Батч
1
Версия transformers
4.44.2
Количество GPU и их тип
1 x NVIDIA H100 80GB HBM3
Архитектура
vllm

Команда:

MERA

Название ML-модели:

Qwen2.5-Coder-7B-Instruct

Ссылка на ML-модель:

https://huggingface.co/Qwen/Qwen2.5-Coder-7B-Instruct

Размер модели

7.0B

Тип модели:

Открытая

SFT

Дополнительные ссылки:

https://arxiv.org/pdf/2409.12186

Описание архитектуры:

Type: Causal Language Models Training Stage: Pretraining & Post-training Architecture: transformers with RoPE, SwiGLU, RMSNorm, and Attention QKV bias Number of Parameters: 7.61B Number of Paramaters (Non-Embedding): 6.53B Number of Layers: 28 Number of Attention Heads (GQA): 28 for Q and 4 for KV Context Length: Full 131,072 tokens

Описание обучения:

-

Данные претрейна:

Large-scale, high-quality, and diverse data forms the foundation of pre-trained models. To this end, we constructed a dataset named Qwen2.5-Coder-Data. This dataset comprises five key data types: Source Code Data, Text-Code Grounding Data, Synthetic Data, Math Data, and Text Data, totaling 5.5 trillion tokens.

Лицензия:

apache-2.0

Параметры инференса

Параметры генерации:
simplear - do_sample=false;until=["\n"]; \nchegeka - do_sample=false;until=["\n"]; \nrudetox - do_sample=false;until=["\n"]; \nrumultiar - do_sample=false;until=["\n"]; \nuse - do_sample=false;until=["\n","."]; \nmultiq - do_sample=false;until=["\n"]; \nrumodar - do_sample=false;until=["\n"]; \nruhumaneval - do_sample=true;until=["\nclass","\ndef","\n#","\nif","\nprint"];temperature=0.6; \nrucodeeval - do_sample=true;until=["\nclass","\ndef","\n#","\nif","\nprint"];temperature=0.6;

Размер контекста:
simplear, bps, lcs, chegeka, mathlogicqa, parus, rcb, rudetox, ruhatespeech, rummlu, ruworldtree, ruopenbookqa, rumultiar, use, rwsd, mamuramu, multiq, rumodar, ruethics, ruhhh, ruhumaneval, rucodeeval - 32768 \nrutie - 5000

Системный промпт:
Реши задачу по инструкции ниже. Не давай никаких объяснений и пояснений к своему ответу. Не пиши ничего лишнего. Пиши только то, что указано в инструкции. Если по инструкции нужно решить пример, то напиши только числовой ответ без хода решения и пояснений. Если по инструкции нужно вывести букву, цифру или слово, выведи только его. Если по инструкции нужно выбрать один из вариантов ответа и вывести букву или цифру, которая ему соответствует, то выведи только эту букву или цифру, не давай никаких пояснений, не добавляй знаки препинания, только 1 символ в ответе. Если по инструкции нужно дописать код функции на языке Python, пиши сразу код, соблюдая отступы так, будто ты продолжаешь функцию из инструкции, не давай пояснений, не пиши комментарии, используй только аргументы из сигнатуры функции в инструкции, не пробуй считывать данные через функцию input. Не извиняйся, не строй диалог. Выдавай только ответ и ничего больше.

Развернуть информацию

Оценки по подкатегориям

Метрика: Grade Norm
Модель, команда 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 8_0 8_1 8_2 8_3 8_4
Qwen2.5-Coder-7B-Instruct
MERA
0.467 0.167 0.733 0.1 0.033 0.067 0 - 0 0 0 0 0 0.033 0.133 0.3 0 0.033 0.033 0 0.033 0.467 0.067 0.1 0.167 0.367 0.167 0.1 0.567 0.233 0.367
Модель, команда Честность Помощь Безопасность
Qwen2.5-Coder-7B-Instruct
MERA
0.541 0.559 0.655
Модель, команда Анатомия Вирусология Астрономия Маркетинг Нутрициология Социология Менеджмент Философия История древнего мира Геронтология Эконометрика Формальная логика Факторы глобального значения Юриспунденция Микс (разнообразный домен) Мораль Бизнес-этика Биология (школьная) Физика (школьная) Человеческая сексуальность Моральные сценарии Мировые религии Общая алгебра Медицина (школьная) Машинное обучение Генетика Профессиональное законодательство PR Безопасность Химия (школьная) Компьютерная безопасность Международное право Логические ошибки Политика Клинические знания Концептуальная физика Математика (школьная) Биология (университетская) Физика (университетская) Химия (университетская) География (университетская) Профессиональная медицина Электротехника Элементарная математика Психология (университетская) Статистика (университетская) История (университетская) Математика (университетская) Бухгалтерский учет Профессиональная психология Компьютерные науки (уровень колледжа) Мировая история (университетская) Макроэкономика Микроэкономика Компьютерные науки (университетские) История европы Государство и политика
Qwen2.5-Coder-7B-Instruct
MERA
0.37 0.476 0.625 0.739 0.552 0.682 0.66 0.605 0.506 0.565 0.386 0.381 0.35 0.63 0.599 0.526 0.62 0.5 0.389 0.542 0.239 0.62 0.4 0.514 0.438 0.55 0.375 0.556 0.665 0.35 0.67 0.694 0.558 0.758 0.558 0.56 0.43 0.681 0.384 0.517 0.692 0.434 0.497 0.568 0.689 0.509 0.554 0.426 0.358 0.492 0.52 0.624 0.554 0.601 0.76 0.673 0.565
Модель, команда SIM FL STA
Qwen2.5-Coder-7B-Instruct
MERA
0.807 0.611 0.373
Модель, команда Анатомия Вирусология Астрономия Маркетинг Питание Социология Менеджмент Философия Предыстория Геронтология Эконометрика Формальная логика Глобальные факты Юриспруденция Разное Моральные споры Деловая этика Биология (колледж) Физика (колле Человеческая сексуальность Моральные сценарии Мировые религии Абстрактная алгебра Медицина (колледж) Машинное обучение Генетика Профессиональное право PR Безопасность Химия (колледж) Компьютерная безопасность Международное право Логические ошибки Политика Клинические знания Концептуальная физика Математика (колледж) Биология (универ) Физика (универ) Химия (универ) География (универ) Проф медицина Электрика Элементарная математика Психология (универ) Статистика (универ) История (универ) Математика (универ) Бухгалтерия Проф психология Коммпьютерные науки (колледж) Мировая история (универ) Макроэкономика Микроэкономика Компьютерные науки (универ) История Европы Государство и политика
Qwen2.5-Coder-7B-Instruct
MERA
0.444 0.604 0.467 0.509 0.618 0.552 0.552 0.649 0.558 0.585 0.577 0.642 0.442 0.659 0.503 0.593 0.673 0.689 0.491 0.667 0.298 0.661 0.756 0.609 0.8 0.621 0.564 0.509 0.807 0.644 0.778 0.667 0.679 0.754 0.5 0.661 0.733 0.778 0.509 0.477 0.641 0.651 0.733 0.733 0.862 0.889 0.707 0.818 0.615 0.772 0.756 0.435 0.709 0.571 0.512 0.491 0.711
Правильно
Хорошо
Этично
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Qwen2.5-Coder-7B-Instruct
MERA
0.38 0.369 0.413 0.328 0.31
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Qwen2.5-Coder-7B-Instruct
MERA
0.372 0.368 0.388 0.296 0.293
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Qwen2.5-Coder-7B-Instruct
MERA
0.386 0.362 0.411 0.328 0.369
Модель, команда Женщины Мужчины ЛГБТ Национальности Мигранты Другое
Qwen2.5-Coder-7B-Instruct
MERA
0.778 0.743 0.706 0.757 0.571 0.852