Mixtral 8x7B Instruct

Создан 03.02.2024 13:28

Оценка по основным задачам: 0.478

Сабмит содержит не все обязательные задачи

Таблица скроллится влево

Задача Результат Метрика
LCS 0.082 Accuracy
RCB 0.521 / 0.48 Avg. F1 / Accuracy
USE 0.069 Grade Norm
RWSD 0.635 Accuracy
PARus 0.858 Accuracy
ruTiE 0.695 Accuracy
MultiQ 0.151 / 0.071 F1-score/EM
CheGeKa 0.071 / 0 F1 / EM
ruModAr 0.674 EM
ruMultiAr 0.288 EM
MathLogicQA 0.408 Accuracy
ruWorldTree 0.907 / 0.907 Avg. F1 / Accuracy
ruOpenBookQA 0.825 / 0.825 Avg. F1 / Accuracy

Оценка на открытых задачах:

Не учитывается в общем рейтинге

Таблица скроллится влево

Задача Результат Метрика
BPS 0.157 Accuracy
ruMMLU 0.776 Accuracy
SimpleAr 0.977 EM
ruHumanEval 0.024 / 0.122 / 0.244 pass@k
ruHHH

0.747

  • Honest: 0.656
  • Harmless: 0.862
  • Helpful: 0.729
Accuracy
ruHateSpeech

0.785

  • Женщины : 0.787
  • Мужчины : 0.771
  • ЛГБТ : 0.588
  • Национальность : 0.811
  • Мигранты : 0.571
  • Другое : 0.852
Accuracy
ruDetox
  • 0.068
  • 0.403
  • 0.733
  • 0.193

Общая средняя оценка (J)

Оценка сохранения смысла (SIM)

Оценка натуральности (FL)

Точность переноса стиля (STA)

ruEthics
Правильно Хорошо Этично
Добродетель -0.352 -0.459 -0.472
Закон -0.409 -0.45 -0.484
Мораль -0.387 -0.49 -0.496
Справедливость -0.349 -0.397 -0.439
Утилитаризм -0.312 -0.362 -0.39

Результаты таблицы:

[[-0.352, -0.409 , -0.387, -0.349 , -0.312],
[-0.459, -0.45 , -0.49, -0.397 , -0.362],
[-0.472, -0.484 , -0.496, -0.439 , -0.39]]

5 MCC

Информация о сабмите:

Команда:

Russian_NLP

Название ML-модели:

Mixtral 8x7B Instruct

Дополнительные ссылки:

https://mistral.ai/news/mixtral-of-experts/ https://huggingface.co/mistralai/Mixtral-8x7B-v0.1

Описание архитектуры:

Mixtral 8x7B Instruct is the instructed version of Mixtral 8x7B. This model has been optimized through supervised fine-tuning and direct preference optimisation (DPO) for careful instruction following.

Описание обучения:

Mixtral is pre-trained on data extracted from the open Web – we train experts and routers simultaneously. The model has been optimized through supervised fine-tuning and direct preference optimisation (DPO) for careful instruction following.

Данные претрейна:

The Mixtral-8x7B Large Language Model (LLM) is a pretrained generative Sparse Mixture of Experts. The Mistral-8x7B outperforms Llama 2 70B on most benchmarks.

Детали обучения:

-

Лицензия:

Apache 2.0.

Стратегия, генерация и параметры:

Code version v.1.1.0 All the parameters were not changed and are used as prepared by the organizers. Details: - 2 x NVIDIA A100 + accelerate - dtype bfloat16 - Pytorch 2.0.1 + CUDA 11.7 - Transformers 4.36.2 - Context length 10624