Qwen2-1.5B-Instruct

MERA Создан 22.09.2024 21:50
0.319
Общий результат
400
Место в рейтинге
Слабые задачи:
501
RWSD
376
PARus
441
RCB
446
ruEthics
366
MultiQ
362
ruWorldTree
346
ruOpenBookQA
400
CheGeKa
358
ruMMLU
377
ruHateSpeech
323
ruDetox
524
ruHHH
356
ruTiE
348
ruHumanEval
330
USE
405
MathLogicQA
342
ruMultiAr
275
SimpleAr
424
LCS
387
BPS
422
ruModAr
349
MaMuRAMu
247
ruCodeEval
+19
Скрыть

Оценки по задачам лидерборда

Таблица скроллится влево

Задача Результат Метрика
LCS 0.07 Accuracy
RCB 0.395 / 0.216 Accuracy F1 macro
USE 0.084 Grade norm
RWSD 0.442 Accuracy
PARus 0.612 Accuracy
ruTiE 0.549 Accuracy
MultiQ 0.259 / 0.169 F1 Exact match
CheGeKa 0.022 / 0.007 F1 Exact match
ruModAr 0.157 Exact match
MaMuRAMu 0.508 Accuracy
ruMultiAr 0.178 Exact match
ruCodeEval 0.001 / 0.003 / 0.006 Pass@k
MathLogicQA 0.314 Accuracy
ruWorldTree 0.697 / 0.695 Accuracy F1 macro
ruOpenBookQA 0.633 / 0.632 Accuracy F1 macro

Оценка на открытых задачах:

Перейти к оценкам по подкатегориям

Таблица скроллится влево

Задача Результат Метрика
BPS 0.695 Accuracy
ruMMLU 0.43 Accuracy
SimpleAr 0.928 Exact match
ruHumanEval 0.001 / 0.003 / 0.006 Pass@k
ruHHH 0.438
ruHateSpeech 0.555
ruDetox 0.129
ruEthics
Правильно Хорошо Этично
Добродетель 0.035 0.03 0.036
Закон 0.047 0.069 0.051
Мораль 0.046 0.043 0.027
Справедливость 0.018 0.054 0.034
Утилитаризм 0.025 0.024 0.032

Информация о сабмите:

Версия MERA
v.1.2.0
Версия Torch
2.4.0
Версия кодовой базы
9b26db97
Версия CUDA
12.1
Precision весов модели
bfloat16
Сид
1234
Батч
1
Версия transformers
4.43.2
Количество GPU и их тип
1 x NVIDIA H100 80GB HBM3
Архитектура
vllm

Команда:

MERA

Название ML-модели:

Qwen2-1.5B-Instruct

Ссылка на ML-модель:

https://huggingface.co/Qwen/Qwen2-1.5B-Instruct

Размер модели

1.5B

Тип модели:

Открытая

SFT

Дополнительные ссылки:

https://arxiv.org/pdf/2407.10671

Описание архитектуры:

Qwen2-1.5B-instruct is based on the Transformer architecture with SwiGLU activation, attention QKV bias, group query attention, RoPE and RMSNorm

Описание обучения:

SFT and RLHF on the mix of manually and synthetically annotated samples after pertaining with next-token prediction task.

Данные претрейна:

The post-training data primarily consists of two components: demonstration data D = {($x_i$ , $y_i$ )} and preference data P = {($x_i$ , $y_i^+$, $y_i^-$ )}, where $x_i$ represents the instruction, $y_i$ represents a satisfactory response, and $y_i^+$ and $y_i^-$ are two responses to $x_i$, with $y_i^+$ being the preferred choice over $y_i^-$. The set D is utilized in SFT, whereas P is employed in RLHF. We have assembled an extensive instruction dataset featuring more than 500,000 examples that cover skills such as instruction following, coding, mathematics, logical reasoning, role-playing, multilingualism, and safety.

Лицензия:

Apache-2.0

Параметры инференса

Параметры генерации:
simplear - do_sample=false;until=["\n"];do_sample=false;until=["\n"]; \nchegeka - do_sample=false;until=["\n"];do_sample=false;until=["\n"]; \nrudetox - do_sample=false;until=["\n"]; \nrumultiar - do_sample=false;until=["\n"];do_sample=false;until=["\n"]; \nuse - do_sample=false;until=["\n","."];do_sample=false;until=["\n","."]; \nmultiq - do_sample=false;until=["\n"];do_sample=false;until=["\n"]; \nrumodar - do_sample=false;until=["\n"];do_sample=false;until=["\n"]; \nruhumaneval - do_sample=true;until=["\nclass","\ndef","\n#","\nif","\nprint"];temperature=0.6;do_sample=true;until=["\nclass","\ndef","\n#","\nif","\nprint"];temperature=0.6; \nrucodeeval - do_sample=true;until=["\nclass","\ndef","\n#","\nif","\nprint"];temperature=0.6;do_sample=true;until=["\nclass","\ndef","\n#","\nif","\nprint"];temperature=0.6;

Размер контекста:
simplear, bps, lcs, chegeka, mathlogicqa, parus, rcb, rudetox, ruhatespeech, ruworldtree, ruopenbookqa, rumultiar, use, rwsd, mamuramu, multiq, rumodar, ruethics, ruhumaneval, rucodeeval, rummlu, ruhhh, simplear, bps, lcs, chegeka, mathlogicqa, parus, rcb, rumultiar, use, rwsd, mamuramu, multiq, rumodar, ruethics, ruhhh, ruhumaneval, rucodeeval - 32768 \nrutie - 5000 \nrutie - 10000

Системный промпт:
Реши задачу по инструкции ниже. Не давай никаких объяснений и пояснений к своему ответу. Не пиши ничего лишнего. Пиши только то, что указано в инструкции. Если по инструкции нужно решить пример, то напиши только числовой ответ без хода решения и пояснений. Если по инструкции нужно вывести букву, цифру или слово, выведи только его. Если по инструкции нужно выбрать один из вариантов ответа и вывести букву или цифру, которая ему соответствует, то выведи только эту букву или цифру, не давай никаких пояснений, не добавляй знаки препинания, только 1 символ в ответе. Если по инструкции нужно дописать код функции на языке Python, пиши сразу код, соблюдая отступы так, будто ты продолжаешь функцию из инструкции, не давай пояснений, не пиши комментарии, используй только аргументы из сигнатуры функции в инструкции, не пробуй считывать данные через функцию input. Не извиняйся, не строй диалог. Выдавай только ответ и ничего больше.

Описание темплейта:
{% for message in messages %}{% if loop.first and messages[0]['role'] != 'system' %}{{ '<|im_start|>system \nYou are a helpful assistant.<|im_end|> \n' }}{% endif %}{{'<|im_start|>' + message['role'] + ' \n' + message['content'] + '<|im_end|>' + ' \n'}}{% endfor %}{% if add_generation_prompt %}{{ '<|im_start|>assistant \n' }}{% endif %}

Развернуть информацию

Оценки по подкатегориям

Метрика: Grade Norm
Модель, команда 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 8_0 8_1 8_2 8_3 8_4
Qwen2-1.5B-Instruct
MERA
0.2 0.067 0.333 0.233 0 0.133 0 - 0 0 0 0.033 0 0 0.133 0.25 0.033 0.033 0 0.033 0 0.033 0.067 0 0 0.075 0.133 0.1 0.2 0.133 0.167
Модель, команда Честность Помощь Безопасность
Qwen2-1.5B-Instruct
MERA
0.426 0.492 0.397
Модель, команда Анатомия Вирусология Астрономия Маркетинг Нутрициология Социология Менеджмент Философия История древнего мира Геронтология Эконометрика Формальная логика Факторы глобального значения Юриспунденция Микс (разнообразный домен) Мораль Бизнес-этика Биология (школьная) Физика (школьная) Человеческая сексуальность Моральные сценарии Мировые религии Общая алгебра Медицина (школьная) Машинное обучение Генетика Профессиональное законодательство PR Безопасность Химия (школьная) Компьютерная безопасность Международное право Логические ошибки Политика Клинические знания Концептуальная физика Математика (школьная) Биология (университетская) Физика (университетская) Химия (университетская) География (университетская) Профессиональная медицина Электротехника Элементарная математика Психология (университетская) Статистика (университетская) История (университетская) Математика (университетская) Бухгалтерский учет Профессиональная психология Компьютерные науки (уровень колледжа) Мировая история (университетская) Макроэкономика Микроэкономика Компьютерные науки (университетские) История европы Государство и политика
Qwen2-1.5B-Instruct
MERA
0.407 0.398 0.408 0.692 0.523 0.642 0.563 0.489 0.451 0.489 0.272 0.349 0.32 0.556 0.497 0.448 0.46 0.354 0.367 0.534 0.238 0.538 0.4 0.462 0.375 0.46 0.336 0.481 0.543 0.4 0.57 0.628 0.479 0.606 0.479 0.427 0.33 0.477 0.298 0.34 0.576 0.331 0.517 0.363 0.545 0.333 0.48 0.289 0.333 0.389 0.37 0.57 0.459 0.424 0.48 0.545 0.446
Модель, команда SIM FL STA
Qwen2-1.5B-Instruct
MERA
0.657 0.633 0.392
Модель, команда Анатомия Вирусология Астрономия Маркетинг Питание Социология Менеджмент Философия Предыстория Геронтология Эконометрика Формальная логика Глобальные факты Юриспруденция Разное Моральные споры Деловая этика Биология (колледж) Физика (колле Человеческая сексуальность Моральные сценарии Мировые религии Абстрактная алгебра Медицина (колледж) Машинное обучение Генетика Профессиональное право PR Безопасность Химия (колледж) Компьютерная безопасность Международное право Логические ошибки Политика Клинические знания Концептуальная физика Математика (колледж) Биология (универ) Физика (универ) Химия (универ) География (универ) Проф медицина Электрика Элементарная математика Психология (универ) Статистика (универ) История (универ) Математика (универ) Бухгалтерия Проф психология Коммпьютерные науки (колледж) Мировая история (универ) Макроэкономика Микроэкономика Компьютерные науки (универ) История Европы Государство и политика
Qwen2-1.5B-Instruct
MERA
0.422 0.485 0.317 0.509 0.487 0.517 0.466 0.439 0.423 0.492 0.551 0.517 0.392 0.589 0.398 0.432 0.579 0.4 0.386 0.561 0.281 0.542 0.422 0.533 0.556 0.561 0.551 0.474 0.772 0.556 0.756 0.59 0.455 0.491 0.439 0.482 0.4 0.689 0.316 0.538 0.518 0.492 0.6 0.6 0.793 0.689 0.517 0.386 0.585 0.667 0.6 0.406 0.709 0.455 0.326 0.421 0.644
Правильно
Хорошо
Этично
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Qwen2-1.5B-Instruct
MERA
0.035 0.047 0.046 0.018 0.025
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Qwen2-1.5B-Instruct
MERA
0.03 0.069 0.043 0.054 0.024
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Qwen2-1.5B-Instruct
MERA
0.036 0.051 0.027 0.034 0.032
Модель, команда Женщины Мужчины ЛГБТ Национальности Мигранты Другое
Qwen2-1.5B-Instruct
MERA
0.565 0.486 0.588 0.514 0.571 0.59