Meta-Llama-3.1-405B-Instruct

MERA Создан 20.09.2024 17:54
0.59
Общий результат
29
Место в рейтинге
В топе по задачам:
10
MultiQ
Задача входит в число основных
2
ruOpenBookQA
Результат по задаче выше человеческого
Задача входит в число основных
9
CheGeKa
Задача входит в число основных
5
ruMMLU
3
ruDetox
10
MathLogicQA
Задача входит в число основных
5
LCS
Задача входит в число основных
7
MaMuRAMu
Результат по задаче выше человеческого
Задача входит в число основных
+4
Скрыть
Слабые задачи:
81
PARus
30
ruWorldTree
25
ruHateSpeech
83
ruHHH
292
ruTiE
240
ruHumanEval
25
USE
38
BPS
106
ruModAr
+5
Скрыть

Оценки по задачам лидерборда

Таблица скроллится влево

Задача Результат Метрика
LCS 0.258 Accuracy
RCB 0.598 / 0.548 Accuracy F1 macro
USE 0.357 Grade norm
RWSD 0.677 Accuracy
PARus 0.902 Accuracy
ruTiE 0.588 Accuracy
MultiQ 0.623 / 0.453 F1 Exact match
CheGeKa 0.506 / 0.413 F1 Exact match
ruModAr 0.573 Exact match
MaMuRAMu 0.868 Accuracy
ruMultiAr 0.437 Exact match
ruCodeEval 0 / 0 / 0 Pass@k
MathLogicQA 0.772 Accuracy
ruWorldTree 0.981 / 0.981 Accuracy F1 macro
ruOpenBookQA 0.955 / 0.765 Accuracy F1 macro

Оценка на открытых задачах:

Перейти к оценкам по подкатегориям

Таблица скроллится влево

Задача Результат Метрика
BPS 0.99 Accuracy
ruMMLU 0.813 Accuracy
SimpleAr 0.997 Exact match
ruHumanEval 0.006 / 0.006 / 0.006 Pass@k
ruHHH 0.809
ruHateSpeech 0.845
ruDetox 0.381
ruEthics
Правильно Хорошо Этично
Добродетель 0.525 0.489 0.692
Закон 0.538 0.47 0.689
Мораль 0.574 0.522 0.749
Справедливость 0.491 0.44 0.633
Утилитаризм 0.467 0.413 0.61

Информация о сабмите:

Версия MERA
v.1.2.0
Версия Torch
-
Версия кодовой базы
9b26db97
Версия CUDA
-
Precision весов модели
bfloat16
Сид
1234
Батч
1
Версия transformers
4.44.2
Количество GPU и их тип
16 x NVIDIA H100 80GB HBM3
Архитектура
openai-completions, vllm

Команда:

MERA

Название ML-модели:

Meta-Llama-3.1-405B-Instruct

Размер модели

405.0B

Тип модели:

Открытая

SFT

Описание архитектуры:

A pretrained and instruction tuned 405B auto-regressive generative model with Grouped-Query Attention. Optimized for multilingual dialogue use cases.

Описание обучения:

The tuned versions use supervised fine-tuning (SFT) and reinforcement learning with human feedback (RLHF) to align with human preferences for helpfulness and safety.

Данные претрейна:

Llama 3.1 was pretrained on ~15 trillion tokens of data from publicly available sources. The fine-tuning data includes publicly available instruction datasets, as well as over 25M synthetically generated examples. The pretraining data has a cutoff of December 2023.

Лицензия:

https://github.com/meta-llama/llama-models/blob/main/models/llama3_1/LICENSE

Параметры инференса

Параметры генерации:
simplear - do_sample=false;until=["\n"]; \nchegeka - do_sample=false;until=["\n"]; \nrudetox - do_sample=false;until=["\n"]; \nrumultiar - do_sample=false;until=["\n"]; \nuse - do_sample=false;until=["\n","."]; \nmultiq - do_sample=false;until=["\n"]; \nrumodar - do_sample=false;until=["\n"]; \nruhumaneval - do_sample=true;until=["\nclass","\ndef","\n#","\nif","\nprint"];temperature=0.6; \nrucodeeval - do_sample=true;until=["\nclass","\ndef","\n#","\nif","\nprint"];temperature=0.6;

Размер контекста:
simplear, chegeka, rudetox, rumultiar, use, multiq, rumodar, ruhumaneval, rucodeeval, bps, lcs, mathlogicqa, parus, rcb, ruhatespeech, rummlu, ruworldtree, ruopenbookqa, rwsd, mamuramu, ruethics, ruhhh, rutie - 2047

Системный промпт:
Реши задачу по инструкции ниже. Не давай никаких объяснений и пояснений к своему ответу. Не пиши ничего лишнего. Пиши только то, что указано в инструкции. Если по инструкции нужно решить пример, то напиши только числовой ответ без хода решения и пояснений. Если по инструкции нужно вывести букву, цифру или слово, выведи только его. Если по инструкции нужно выбрать один из вариантов ответа и вывести букву или цифру, которая ему соответствует, то выведи только эту букву или цифру, не давай никаких пояснений, не добавляй знаки препинания, только 1 символ в ответе. Если по инструкции нужно дописать код функции на языке Python, пиши сразу код, соблюдая отступы так, будто ты продолжаешь функцию из инструкции, не давай пояснений, не пиши комментарии, используй только аргументы из сигнатуры функции в инструкции, не пробуй считывать данные через функцию input. Не извиняйся, не строй диалог. Выдавай только ответ и ничего больше.

Развернуть информацию

Оценки по подкатегориям

Метрика: Grade Norm
Модель, команда 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 8_0 8_1 8_2 8_3 8_4
Meta-Llama-3.1-405B-Instruct
MERA
0.6 0.667 0.867 0.167 0.167 0.633 0.167 - 0.033 0.1 0.067 0.033 0.3 0.233 0.1 0.533 0.067 0.067 0.133 0.133 0.067 0.7 0.467 0.333 0.233 0.75 0.1 0.167 0.5 0.3 0.667
Модель, команда Честность Помощь Безопасность
Meta-Llama-3.1-405B-Instruct
MERA
0.803 0.864 0.759
Модель, команда Анатомия Вирусология Астрономия Маркетинг Нутрициология Социология Менеджмент Философия История древнего мира Геронтология Эконометрика Формальная логика Факторы глобального значения Юриспунденция Микс (разнообразный домен) Мораль Бизнес-этика Биология (школьная) Физика (школьная) Человеческая сексуальность Моральные сценарии Мировые религии Общая алгебра Медицина (школьная) Машинное обучение Генетика Профессиональное законодательство PR Безопасность Химия (школьная) Компьютерная безопасность Международное право Логические ошибки Политика Клинические знания Концептуальная физика Математика (школьная) Биология (университетская) Физика (университетская) Химия (университетская) География (университетская) Профессиональная медицина Электротехника Элементарная математика Психология (университетская) Статистика (университетская) История (университетская) Математика (университетская) Бухгалтерский учет Профессиональная психология Компьютерные науки (уровень колледжа) Мировая история (университетская) Макроэкономика Микроэкономика Компьютерные науки (университетские) История европы Государство и политика
Meta-Llama-3.1-405B-Instruct
MERA
0.778 0.56 0.908 0.915 0.895 0.915 0.883 0.849 0.858 0.794 0.693 0.706 0.69 0.852 0.925 0.827 0.84 0.965 0.689 0.863 0.768 0.901 0.68 0.757 0.741 0.92 0.654 0.75 0.816 0.62 0.82 0.893 0.828 0.949 0.83 0.842 0.57 0.923 0.722 0.768 0.904 0.908 0.752 0.846 0.923 0.782 0.902 0.689 0.642 0.816 0.78 0.941 0.859 0.92 0.94 0.879 0.922
Модель, команда SIM FL STA
Meta-Llama-3.1-405B-Instruct
MERA
0.718 0.721 0.756
Модель, команда Анатомия Вирусология Астрономия Маркетинг Питание Социология Менеджмент Философия Предыстория Геронтология Эконометрика Формальная логика Глобальные факты Юриспруденция Разное Моральные споры Деловая этика Биология (колледж) Физика (колле Человеческая сексуальность Моральные сценарии Мировые религии Абстрактная алгебра Медицина (колледж) Машинное обучение Генетика Профессиональное право PR Безопасность Химия (колледж) Компьютерная безопасность Международное право Логические ошибки Политика Клинические знания Концептуальная физика Математика (колледж) Биология (универ) Физика (универ) Химия (универ) География (универ) Проф медицина Электрика Элементарная математика Психология (универ) Статистика (универ) История (универ) Математика (универ) Бухгалтерия Проф психология Коммпьютерные науки (колледж) Мировая история (универ) Макроэкономика Микроэкономика Компьютерные науки (универ) История Европы Государство и политика
Meta-Llama-3.1-405B-Instruct
MERA
0.778 0.921 0.817 0.787 0.934 0.845 0.793 0.789 0.981 0.754 0.808 0.817 0.583 0.915 0.883 0.827 0.794 0.844 0.842 0.842 0.912 0.932 0.911 0.905 0.8 0.894 0.897 0.789 0.93 0.867 0.911 0.936 0.92 0.965 0.773 0.839 0.844 0.889 0.737 0.892 0.951 0.952 0.911 0.978 0.948 0.933 0.948 0.977 0.8 0.93 0.933 0.957 0.823 0.779 0.767 0.877 0.933
Правильно
Хорошо
Этично
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Meta-Llama-3.1-405B-Instruct
MERA
0.525 0.538 0.574 0.491 0.467
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Meta-Llama-3.1-405B-Instruct
MERA
0.489 0.47 0.522 0.44 0.413
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Meta-Llama-3.1-405B-Instruct
MERA
0.692 0.689 0.749 0.633 0.61
Модель, команда Женщины Мужчины ЛГБТ Национальности Мигранты Другое
Meta-Llama-3.1-405B-Instruct
MERA
0.88 0.686 0.824 0.838 0.714 0.902