Meta-Llama-3.1-70B-Instruct

MERA Создан 22.09.2024 20:52
0.554
Общий результат
61
Место в рейтинге
Слабые задачи:
171
RWSD
32
PARus
42
ruEthics
37
ruWorldTree
50
ruOpenBookQA
55
CheGeKa
28
ruMMLU
61
ruHateSpeech
22
ruDetox
49
ruHHH
42
ruTiE
48
USE
57
MathLogicQA
56
ruMultiAr
110
SimpleAr
49
LCS
149
BPS
113
ruModAr
40
MaMuRAMu
+15
Скрыть

Оценки по задачам лидерборда

Таблица скроллится влево

Задача Результат Метрика
LCS 0.156 Accuracy
RCB 0.596 / 0.526 Accuracy F1 macro
USE 0.317 Grade norm
RWSD 0.554 Accuracy
PARus 0.932 Accuracy
ruTiE 0.845 Accuracy
MultiQ 0.607 / 0.443 F1 Exact match
CheGeKa 0.353 / 0.291 F1 Exact match
ruModAr 0.56 Exact match
MaMuRAMu 0.823 Accuracy
ruMultiAr 0.354 Exact match
ruCodeEval 0 / 0 / 0 Pass@k
MathLogicQA 0.566 Accuracy
ruWorldTree 0.977 / 0.977 Accuracy F1 macro
ruOpenBookQA 0.913 / 0.731 Accuracy F1 macro

Оценка на открытых задачах:

Перейти к оценкам по подкатегориям

Таблица скроллится влево

Задача Результат Метрика
BPS 0.957 Accuracy
ruMMLU 0.762 Accuracy
SimpleAr 0.982 Exact match
ruHumanEval 0 / 0 / 0 Pass@k
ruHHH 0.848
ruHateSpeech 0.811
ruDetox 0.342
ruEthics
Правильно Хорошо Этично
Добродетель 0.42 0.408 0.469
Закон 0.407 0.385 0.452
Мораль 0.46 0.436 0.501
Справедливость 0.39 0.359 0.422
Утилитаризм 0.358 0.351 0.42

Информация о сабмите:

Версия MERA
v.1.2.0
Версия Torch
2.4.0
Версия кодовой базы
9b26db97
Версия CUDA
12.1
Precision весов модели
bfloat16
Сид
1234
Батч
1
Версия transformers
4.44.2
Количество GPU и их тип
8 x NVIDIA H100 80GB HBM3
Архитектура
vllm

Команда:

MERA

Название ML-модели:

Meta-Llama-3.1-70B-Instruct

Размер модели

70.6B

Тип модели:

Открытая

SFT

Описание архитектуры:

A pretrained and instruction tuned 70B auto-regressive generative model with Grouped-Query Attention. Optimized for multilingual dialogue use cases.

Описание обучения:

The tuned versions use supervised fine-tuning (SFT) and reinforcement learning with human feedback (RLHF) to align with human preferences for helpfulness and safety.

Данные претрейна:

Llama 3.1 was pretrained on ~15 trillion tokens of data from publicly available sources. The fine-tuning data includes publicly available instruction datasets, as well as over 25M synthetically generated examples. The pretraining data has a cutoff of December 2023.

Лицензия:

https://github.com/meta-llama/llama-models/blob/main/models/llama3_1/LICENSE

Параметры инференса

Параметры генерации:
simplear - do_sample=false;until=["\n"]; \nchegeka - do_sample=false;until=["\n"]; \nrudetox - do_sample=false;until=["\n"]; \nrumultiar - do_sample=false;until=["\n"]; \nuse - do_sample=false;until=["\n","."]; \nmultiq - do_sample=false;until=["\n"]; \nrumodar - do_sample=false;until=["\n"]; \nruhumaneval - do_sample=true;until=["\nclass","\ndef","\n#","\nif","\nprint"];temperature=0.6; \nrucodeeval - do_sample=true;until=["\nclass","\ndef","\n#","\nif","\nprint"];temperature=0.6;

Размер контекста:
simplear, bps, lcs, chegeka, mathlogicqa, parus, rcb, rudetox, ruhatespeech, rummlu, ruworldtree, ruopenbookqa, rumultiar, use, rwsd, mamuramu, multiq, rumodar, ruethics, ruhhh, ruhumaneval, rucodeeval, rutie - 131072 \nrutie - 5000

Системный промпт:
Реши задачу по инструкции ниже. Не давай никаких объяснений и пояснений к своему ответу. Не пиши ничего лишнего. Пиши только то, что указано в инструкции. Если по инструкции нужно решить пример, то напиши только числовой ответ без хода решения и пояснений. Если по инструкции нужно вывести букву, цифру или слово, выведи только его. Если по инструкции нужно выбрать один из вариантов ответа и вывести букву или цифру, которая ему соответствует, то выведи только эту букву или цифру, не давай никаких пояснений, не добавляй знаки препинания, только 1 символ в ответе. Если по инструкции нужно дописать код функции на языке Python, пиши сразу код, соблюдая отступы так, будто ты продолжаешь функцию из инструкции, не давай пояснений, не пиши комментарии, используй только аргументы из сигнатуры функции в инструкции, не пробуй считывать данные через функцию input. Не извиняйся, не строй диалог. Выдавай только ответ и ничего больше.

Описание темплейта:
{{- bos_token }} \n{%- if custom_tools is defined %} \n {%- set tools = custom_tools %} \n{%- endif %} \n{%- if not tools_in_user_message is defined %} \n {%- set tools_in_user_message = true %} \n{%- endif %} \n{%- if not date_string is defined %} \n {%- set date_string = "26 Jul 2024" %} \n{%- endif %} \n{%- if not tools is defined %} \n {%- set tools = none %} \n{%- endif %} \n \n{#- This block extracts the system message, so we can slot it into the right place. #} \n{%- if messages[0]['role'] == 'system' %} \n {%- set system_message = messages[0]['content']|trim %} \n {%- set messages = messages[1:] %} \n{%- else %} \n {%- set system_message = "" %} \n{%- endif %} \n \n{#- System message + builtin tools #} \n{{- "<|start_header_id|>system<|end_header_id|>\n\n" }} \n{%- if builtin_tools is defined or tools is not none %} \n {{- "Environment: ipython\n" }} \n{%- endif %} \n{%- if builtin_tools is defined %} \n {{- "Tools: " + builtin_tools | reject('equalto', 'code_interpreter') | join(", ") + "\n\n"}} \n{%- endif %} \n{{- "Cutting Knowledge Date: December 2023\n" }} \n{{- "Today Date: " + date_string + "\n\n" }} \n{%- if tools is not none and not tools_in_user_message %} \n {{- "You have access to the following functions. To call a function, please respond with JSON for a function call." }} \n {{- 'Respond in the format {"name": function name, "parameters": dictionary of argument name and its value}.' }} \n {{- "Do not use variables.\n\n" }} \n {%- for t in tools %} \n {{- t | tojson(indent=4) }} \n {{- "\n\n" }} \n {%- endfor %} \n{%- endif %} \n{{- system_message }} \n{{- "<|eot_id|>" }} \n \n{#- Custom tools are passed in a user message with some extra guidance #} \n{%- if tools_in_user_message and not tools is none %} \n {#- Extract the first user message so we can plug it in here #} \n {%- if messages | length != 0 %} \n {%- set first_user_message = messages[0]['content']|trim %} \n {%- set messages = messages[1:] %} \n {%- else %} \n {{- raise_exception("Cannot put tools in the first user message when there's no first user message!") }} \n{%- endif %} \n {{- '<|start_header_id|>user<|end_header_id|>\n\n' -}} \n {{- "Given the following functions, please respond with a JSON for a function call " }} \n {{- "with its proper arguments that best answers the given prompt.\n\n" }} \n {{- 'Respond in the format {"name": function name, "parameters": dictionary of argument name and its value}.' }} \n {{- "Do not use variables.\n\n" }} \n {%- for t in tools %} \n {{- t | tojson(indent=4) }} \n {{- "\n\n" }} \n {%- endfor %} \n {{- first_user_message + "<|eot_id|>"}} \n{%- endif %} \n \n{%- for message in messages %} \n {%- if not (message.role == 'ipython' or message.role == 'tool' or 'tool_calls' in message) %} \n {{- '<|start_header_id|>' + message['role'] + '<|end_header_id|>\n\n'+ message['content'] | trim + '<|eot_id|>' }} \n {%- elif 'tool_calls' in message %} \n {%- if not message.tool_calls|length == 1 %} \n {{- raise_exception("This model only supports single tool-calls at once!") }} \n {%- endif %} \n {%- set tool_call = message.tool_calls[0].function %} \n {%- if builtin_tools is defined and tool_call.name in builtin_tools %} \n {{- '<|start_header_id|>assistant<|end_header_id|>\n\n' -}} \n {{- "<|python_tag|>" + tool_call.name + ".call(" }} \n {%- for arg_name, arg_val in tool_call.arguments | items %} \n {{- arg_name + '="' + arg_val + '"' }} \n {%- if not loop.last %} \n {{- ", " }} \n {%- endif %} \n {%- endfor %} \n {{- ")" }} \n {%- else %} \n {{- '<|start_header_id|>assistant<|end_header_id|>\n\n' -}} \n {{- '{"name": "' + tool_call.name + '", ' }} \n {{- '"parameters": ' }} \n {{- tool_call.arguments | tojson }} \n {{- "}" }} \n {%- endif %} \n {%- if builtin_tools is defined %} \n {#- This means we're in ipython mode #} \n {{- "<|eom_id|>" }} \n {%- else %} \n {{- "<|eot_id|>" }} \n {%- endif %} \n {%- elif message.role == "tool" or message.role == "ipython" %} \n {{- "<|start_header_id|>ipython<|end_header_id|>\n\n" }} \n {%- if message.content is mapping or message.content is iterable %} \n {{- message.content | tojson }} \n {%- else %} \n {{- message.content }} \n {%- endif %} \n {{- "<|eot_id|>" }} \n {%- endif %} \n{%- endfor %} \n{%- if add_generation_prompt %} \n {{- '<|start_header_id|>assistant<|end_header_id|>\n\n' }} \n{%- endif %}

Развернуть информацию

Оценки по подкатегориям

Метрика: Grade Norm
Модель, команда 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 8_0 8_1 8_2 8_3 8_4
Meta-Llama-3.1-70B-Instruct
MERA
0.367 0.333 0.767 0.167 0.067 0.667 0.1 - 0.1 0.1 0.067 0.033 0.167 0.1 0 0.533 0.033 0.033 0.1 0.033 0.1 0.7 0.4 0.167 0.4 0.625 0.167 0.4 0.5 0.533 0.6
Модель, команда Честность Помощь Безопасность
Meta-Llama-3.1-70B-Instruct
MERA
0.852 0.797 0.897
Модель, команда Анатомия Вирусология Астрономия Маркетинг Нутрициология Социология Менеджмент Философия История древнего мира Геронтология Эконометрика Формальная логика Факторы глобального значения Юриспунденция Микс (разнообразный домен) Мораль Бизнес-этика Биология (школьная) Физика (школьная) Человеческая сексуальность Моральные сценарии Мировые религии Общая алгебра Медицина (школьная) Машинное обучение Генетика Профессиональное законодательство PR Безопасность Химия (школьная) Компьютерная безопасность Международное право Логические ошибки Политика Клинические знания Концептуальная физика Математика (школьная) Биология (университетская) Физика (университетская) Химия (университетская) География (университетская) Профессиональная медицина Электротехника Элементарная математика Психология (университетская) Статистика (университетская) История (университетская) Математика (университетская) Бухгалтерский учет Профессиональная психология Компьютерные науки (уровень колледжа) Мировая история (университетская) Макроэкономика Микроэкономика Компьютерные науки (университетские) История европы Государство и политика
Meta-Llama-3.1-70B-Instruct
MERA
0.696 0.548 0.855 0.889 0.873 0.866 0.786 0.797 0.84 0.74 0.588 0.627 0.58 0.815 0.847 0.76 0.8 0.903 0.656 0.809 0.743 0.842 0.51 0.711 0.634 0.93 0.615 0.648 0.784 0.58 0.8 0.901 0.791 0.949 0.789 0.808 0.57 0.916 0.636 0.754 0.889 0.853 0.697 0.7 0.891 0.704 0.907 0.5 0.518 0.764 0.68 0.882 0.826 0.874 0.88 0.855 0.922
Модель, команда SIM FL STA
Meta-Llama-3.1-70B-Instruct
MERA
0.674 0.74 0.713
Модель, команда Анатомия Вирусология Астрономия Маркетинг Питание Социология Менеджмент Философия Предыстория Геронтология Эконометрика Формальная логика Глобальные факты Юриспруденция Разное Моральные споры Деловая этика Биология (колледж) Физика (колле Человеческая сексуальность Моральные сценарии Мировые религии Абстрактная алгебра Медицина (колледж) Машинное обучение Генетика Профессиональное право PR Безопасность Химия (колледж) Компьютерная безопасность Международное право Логические ошибки Политика Клинические знания Концептуальная физика Математика (колледж) Биология (универ) Физика (универ) Химия (универ) География (универ) Проф медицина Электрика Элементарная математика Психология (универ) Статистика (универ) История (универ) Математика (универ) Бухгалтерия Проф психология Коммпьютерные науки (колледж) Мировая история (универ) Макроэкономика Микроэкономика Компьютерные науки (универ) История Европы Государство и политика
Meta-Llama-3.1-70B-Instruct
MERA
0.733 0.891 0.75 0.639 0.868 0.828 0.707 0.789 0.923 0.769 0.846 0.775 0.625 0.806 0.86 0.728 0.738 0.8 0.772 0.86 0.877 0.898 0.822 0.852 0.822 0.864 0.833 0.789 0.895 0.822 0.844 0.872 0.839 0.912 0.712 0.839 0.867 0.822 0.754 0.785 0.89 0.873 0.867 1 0.897 0.911 0.914 0.932 0.754 0.947 0.844 0.913 0.823 0.74 0.721 0.766 0.922
Правильно
Хорошо
Этично
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Meta-Llama-3.1-70B-Instruct
MERA
0.42 0.407 0.46 0.39 0.358
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Meta-Llama-3.1-70B-Instruct
MERA
0.408 0.385 0.436 0.359 0.351
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Meta-Llama-3.1-70B-Instruct
MERA
0.469 0.452 0.501 0.422 0.42
Модель, команда Женщины Мужчины ЛГБТ Национальности Мигранты Другое
Meta-Llama-3.1-70B-Instruct
MERA
0.833 0.686 0.706 0.811 0.714 0.885