Mistral 7B

MERA Создан 12.01.2024 11:18
0.4
Общий результат
Сабмит содержит не все обязательные задачи

Оценки по задачам лидерборда

Таблица скроллится влево

Задача Результат Метрика
LCS 0.098 Accuracy
RCB 0.372 / 0.344 Accuracy F1 macro
USE 0.022 Grade norm
RWSD 0.512 Accuracy
PARus 0.518 Accuracy
ruTiE 0.502 Accuracy
MultiQ 0.124 / 0.067 F1 Exact match
CheGeKa 0.038 / 0 F1 Exact match
ruModAr 0.516 Exact match
ruMultiAr 0.195 Exact match
MathLogicQA 0.344 Accuracy
ruWorldTree 0.81 / 0.811 Accuracy F1 macro
ruOpenBookQA 0.735 / 0.732 Accuracy F1 macro

Оценка на открытых задачах:

Перейти к оценкам по подкатегориям

Таблица скроллится влево

Задача Результат Метрика
BPS 0.392 Accuracy
ruMMLU 0.676 Accuracy
SimpleAr 0.95 Exact match
ruHumanEval 0.012 / 0.058 / 0.116 Pass@k
ruHHH 0.556
ruHateSpeech 0.619
ruDetox 0.375
ruEthics
Правильно Хорошо Этично
Добродетель -0.12 -0.065 -0.114
Закон -0.091 -0.061 -0.115
Мораль -0.114 -0.056 -0.122
Справедливость -0.141 -0.047 -0.104
Утилитаризм -0.129 -0.081 -0.089

Информация о сабмите:

Версия MERA
-
Версия Torch
-
Версия кодовой базы
-
Версия CUDA
-
Precision весов модели
-
Сид
-
Батч
-
Версия transformers
-
Количество GPU и их тип
-
Архитектура
-

Команда:

MERA

Название ML-модели:

Mistral 7B

Дополнительные ссылки:

https://arxiv.org/abs/2310.06825

Описание архитектуры:

The Mistral-7B-v0.1 Large Language Model (LLM) is a pretrained generative text model with 7 billion parameters. Mistral-7B-v0.1 outperforms Llama 2 13B on all benchmarks we tested.

Описание обучения:

Mistral 7B leverages grouped-query attention (GQA), and sliding window attention (SWA). GQA significantly accelerates the inference speed, and also reduces the memory requirement during decoding, allowing for higher batch sizes hence higher throughput, a crucial factor for real-time applications. In addition, SWA is designed to handle longer sequences more effectively at a reduced computational cost, thereby alleviating a common limitation in LLMs. These attention mechanisms collectively contribute to the enhanced performance and efficiency of Mistral 7B.

Данные претрейна:

-

Детали обучения:

Mistral-7B-v0.1 is a transformer model, with the following architecture choices: Grouped-Query Attention Sliding-Window Attention Byte-fallback BPE tokenizer.

Лицензия:

Apache 2.0 license

Стратегия, генерация и параметры:

Code version v.1.1.0 All the parameters were not changed and are used as prepared by the organizers. Details: - 1 x NVIDIA A100 - dtype auto - Pytorch 2.1.2 + CUDA 12.1 - Transformers 4.36.2 - Context length 11500

Развернуть информацию

Оценки по подкатегориям

Метрика: Точность
Модель, команда Честность Помощь Безопасность
Mistral 7B
MERA
0.541 0.542 0.586
Модель, команда Анатомия Вирусология Астрономия Маркетинг Нутрициология Социология Менеджмент Философия История древнего мира Геронтология Эконометрика Формальная логика Факторы глобального значения Юриспунденция Микс (разнообразный домен) Мораль Бизнес-этика Биология (школьная) Физика (школьная) Человеческая сексуальность Моральные сценарии Мировые религии Общая алгебра Медицина (школьная) Машинное обучение Генетика Профессиональное законодательство PR Безопасность Химия (школьная) Компьютерная безопасность Международное право Логические ошибки Политика Клинические знания Концептуальная физика Математика (школьная) Биология (университетская) Физика (университетская) Химия (университетская) География (университетская) Профессиональная медицина Электротехника Элементарная математика Психология (университетская) Статистика (университетская) История (университетская) Математика (университетская) Бухгалтерский учет Профессиональная психология Компьютерные науки (уровень колледжа) Мировая история (университетская) Макроэкономика Микроэкономика Компьютерные науки (университетские) История европы Государство и политика
Mistral 7B
MERA
0.7 0.688 0.4 0.629 0.857 0.8 0.733 0.765 0.6 0.7 0.545 0.6 0.7 0.5 0.636 0.5 0.8 0.704 0.4 1 0.2 0.808 0.8 0.686 0.7 0.818 0.688 0.786 0.9 0.636 0.5 0.833 0.6 0.6 0.636 0.9 0.4 0.667 0.6 0.4 0.747 0.7 0.9 0.6 0.875 0.8 1 0.3 0.6 0.8 0.545 0.875 0.794 0.733 0.5 0.364 0.593
Модель, команда SIM FL STA
Mistral 7B
MERA
0.779 0.594 0.775
Правильно
Хорошо
Этично
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Mistral 7B
MERA
-0.12 -0.091 -0.114 -0.141 -0.129
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Mistral 7B
MERA
-0.065 -0.061 -0.056 -0.047 -0.081
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Mistral 7B
MERA
-0.114 -0.115 -0.122 -0.104 -0.089
Модель, команда Женщины Мужчины ЛГБТ Национальности Мигранты Другое
Mistral 7B
MERA
0.593 0.686 0.588 0.595 0.429 0.672