Yi-1.5-34B-Chat

MERA Создан 20.09.2024 12:37
0.413
Общий результат
256
Место в рейтинге
Слабые задачи:
488
RWSD
265
PARus
90
RCB
270
ruEthics
154
MultiQ
259
ruWorldTree
292
ruOpenBookQA
304
CheGeKa
245
ruMMLU
282
ruHateSpeech
270
ruDetox
309
ruHHH
179
ruTiE
248
ruHumanEval
245
USE
138
MathLogicQA
159
ruMultiAr
149
SimpleAr
187
LCS
231
BPS
322
ruModAr
284
MaMuRAMu
+18
Скрыть

Оценки по задачам лидерборда

Таблица скроллится влево

Задача Результат Метрика
LCS 0.116 Accuracy
RCB 0.564 / 0.506 Accuracy F1 macro
USE 0.13 Grade norm
RWSD 0.446 Accuracy
PARus 0.738 Accuracy
ruTiE 0.69 Accuracy
MultiQ 0.416 / 0.266 F1 Exact match
CheGeKa 0.049 / 0.017 F1 Exact match
ruModAr 0.39 Exact match
MaMuRAMu 0.572 Accuracy
ruMultiAr 0.287 Exact match
ruCodeEval 0 / 0 / 0 Pass@k
MathLogicQA 0.458 Accuracy
ruWorldTree 0.796 / 0.795 Accuracy F1 macro
ruOpenBookQA 0.673 / 0.669 Accuracy F1 macro

Оценка на открытых задачах:

Перейти к оценкам по подкатегориям

Таблица скроллится влево

Задача Результат Метрика
BPS 0.924 Accuracy
ruMMLU 0.52 Accuracy
SimpleAr 0.977 Exact match
ruHumanEval 0.006 / 0.006 / 0.006 Pass@k
ruHHH 0.579
ruHateSpeech 0.642
ruDetox 0.147
ruEthics
Правильно Хорошо Этично
Добродетель 0.264 0.267 0.213
Закон 0.239 0.285 0.201
Мораль 0.278 0.286 0.221
Справедливость 0.228 0.214 0.175
Утилитаризм 0.212 0.223 0.181

Информация о сабмите:

Версия MERA
v.1.2.0
Версия Torch
2.4.0
Версия кодовой базы
9b26db97
Версия CUDA
12.1
Precision весов модели
bfloat16
Сид
1234
Батч
1
Версия transformers
4.43.2
Количество GPU и их тип
4 x NVIDIA H100 80GB HBM3
Архитектура
vllm

Команда:

MERA

Название ML-модели:

Yi-1.5-34B-Chat

Ссылка на ML-модель:

https://huggingface.co/01-ai/Yi-1.5-34B-Chat

Размер модели

34.4B

Тип модели:

Открытая

SFT

Описание архитектуры:

The Yi series models adopt the same model architecture as Llama but are NOT derivatives of Llama.

Описание обучения:

Yi has independently created its own high-quality training datasets, efficient training pipelines, and robust training infrastructure entirely from the ground up.

Данные претрейна:

Yi-1.5 is an upgraded version of Yi (which was trained on 3T multilingual corpus). It is continuously pre-trained on Yi with a high-quality corpus of 500B tokens and fine-tuned on 3M diverse fine-tuning samples.

Лицензия:

apache-2.0

Параметры инференса

Параметры генерации:
simplear - do_sample=false;until=["\n"]; \nchegeka - do_sample=false;until=["\n"]; \nrudetox - do_sample=false;until=["\n"]; \nrumultiar - do_sample=false;until=["\n"]; \nuse - do_sample=false;until=["\n","."]; \nmultiq - do_sample=false;until=["\n"]; \nrumodar - do_sample=false;until=["\n"]; \nruhumaneval - do_sample=true;until=["\nclass","\ndef","\n#","\nif","\nprint"];temperature=0.6; \nrucodeeval - do_sample=true;until=["\nclass","\ndef","\n#","\nif","\nprint"];temperature=0.6;

Размер контекста:
simplear, bps, lcs, chegeka, mathlogicqa, parus, rcb, rudetox, ruhatespeech, rummlu, ruworldtree, ruopenbookqa, rumultiar, use, rwsd, mamuramu, multiq, rumodar, ruethics, ruhhh, ruhumaneval, rucodeeval, rutie, rutie - 4096

Системный промпт:
Реши задачу по инструкции ниже. Не давай никаких объяснений и пояснений к своему ответу. Не пиши ничего лишнего. Пиши только то, что указано в инструкции. Если по инструкции нужно решить пример, то напиши только числовой ответ без хода решения и пояснений. Если по инструкции нужно вывести букву, цифру или слово, выведи только его. Если по инструкции нужно выбрать один из вариантов ответа и вывести букву или цифру, которая ему соответствует, то выведи только эту букву или цифру, не давай никаких пояснений, не добавляй знаки препинания, только 1 символ в ответе. Если по инструкции нужно дописать код функции на языке Python, пиши сразу код, соблюдая отступы так, будто ты продолжаешь функцию из инструкции, не давай пояснений, не пиши комментарии, используй только аргументы из сигнатуры функции в инструкции, не пробуй считывать данные через функцию input. Не извиняйся, не строй диалог. Выдавай только ответ и ничего больше.

Описание темплейта:
{% if messages[0]['role'] == 'system' %}{% set system_message = messages[0]['content'] %}{% endif %}{% if system_message is defined %}{{ system_message }}{% endif %}{% for message in messages %}{% set content = message['content'] %}{% if message['role'] == 'user' %}{{ '<|im_start|>user\n' + content + '<|im_end|>\n<|im_start|>assistant\n' }}{% elif message['role'] == 'assistant' %}{{ content + '<|im_end|>' + '\n' }}{% endif %}{% endfor %}

Развернуть информацию

Оценки по подкатегориям

Метрика: Grade Norm
Модель, команда 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 8_0 8_1 8_2 8_3 8_4
Yi-1.5-34B-Chat
MERA
0.2 0.067 0.667 0.2 0 0.133 0 - 0 0.033 0.033 0.033 0.167 0.033 0.133 0.383 0 0.033 0 0 0.033 0.567 0.067 0.033 0.1 0.142 0.033 0.067 0.4 0.033 0.033
Модель, команда Честность Помощь Безопасность
Yi-1.5-34B-Chat
MERA
0.59 0.576 0.569
Модель, команда Анатомия Вирусология Астрономия Маркетинг Нутрициология Социология Менеджмент Философия История древнего мира Геронтология Эконометрика Формальная логика Факторы глобального значения Юриспунденция Микс (разнообразный домен) Мораль Бизнес-этика Биология (школьная) Физика (школьная) Человеческая сексуальность Моральные сценарии Мировые религии Общая алгебра Медицина (школьная) Машинное обучение Генетика Профессиональное законодательство PR Безопасность Химия (школьная) Компьютерная безопасность Международное право Логические ошибки Политика Клинические знания Концептуальная физика Математика (школьная) Биология (университетская) Физика (университетская) Химия (университетская) География (университетская) Профессиональная медицина Электротехника Элементарная математика Психология (университетская) Статистика (университетская) История (университетская) Математика (университетская) Бухгалтерский учет Профессиональная психология Компьютерные науки (уровень колледжа) Мировая история (университетская) Макроэкономика Микроэкономика Компьютерные науки (университетские) История европы Государство и политика
Yi-1.5-34B-Chat
MERA
0.415 0.452 0.572 0.752 0.565 0.647 0.66 0.63 0.503 0.57 0.465 0.484 0.37 0.639 0.581 0.555 0.6 0.521 0.444 0.511 0.33 0.485 0.44 0.416 0.393 0.56 0.399 0.574 0.657 0.38 0.7 0.678 0.589 0.687 0.506 0.547 0.37 0.594 0.464 0.463 0.646 0.379 0.552 0.621 0.588 0.477 0.603 0.404 0.411 0.52 0.53 0.679 0.595 0.525 0.77 0.642 0.575
Модель, команда SIM FL STA
Yi-1.5-34B-Chat
MERA
0.531 0.497 0.637
Модель, команда Анатомия Вирусология Астрономия Маркетинг Питание Социология Менеджмент Философия Предыстория Геронтология Эконометрика Формальная логика Глобальные факты Юриспруденция Разное Моральные споры Деловая этика Биология (колледж) Физика (колле Человеческая сексуальность Моральные сценарии Мировые религии Абстрактная алгебра Медицина (колледж) Машинное обучение Генетика Профессиональное право PR Безопасность Химия (колледж) Компьютерная безопасность Международное право Логические ошибки Политика Клинические знания Концептуальная физика Математика (колледж) Биология (универ) Физика (универ) Химия (универ) География (универ) Проф медицина Электрика Элементарная математика Психология (универ) Статистика (универ) История (универ) Математика (универ) Бухгалтерия Проф психология Коммпьютерные науки (колледж) Мировая история (универ) Макроэкономика Микроэкономика Компьютерные науки (универ) История Европы Государство и политика
Yi-1.5-34B-Chat
MERA
0.444 0.545 0.483 0.546 0.553 0.655 0.431 0.579 0.462 0.462 0.641 0.6 0.433 0.589 0.497 0.444 0.645 0.556 0.491 0.596 0.316 0.576 0.756 0.574 0.689 0.5 0.603 0.526 0.754 0.556 0.778 0.654 0.554 0.737 0.5 0.554 0.578 0.689 0.579 0.462 0.592 0.46 0.778 0.822 0.845 0.8 0.552 0.773 0.615 0.754 0.733 0.348 0.671 0.571 0.535 0.404 0.622
Правильно
Хорошо
Этично
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Yi-1.5-34B-Chat
MERA
0.264 0.239 0.278 0.228 0.212
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Yi-1.5-34B-Chat
MERA
0.267 0.285 0.286 0.214 0.223
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Yi-1.5-34B-Chat
MERA
0.213 0.201 0.221 0.175 0.181
Модель, команда Женщины Мужчины ЛГБТ Национальности Мигранты Другое
Yi-1.5-34B-Chat
MERA
0.704 0.629 0.471 0.757 0.286 0.557