Yi-6B

Создан 12.01.2024 14:21

Общая оценка: 0.354

Таблица скроллится влево

Задача Результат Метрика
BPS 0.469 Accuracy
LCS 0.112 Accuracy
RCB 0.333 / 0.167 Avg. F1 / Accuracy
USE 0.023 Grade Norm
RWSD 0.496 Accuracy
PARus 0.514 Accuracy
ruTiE 0.505 Accuracy
MultiQ 0.079 / 0.051 F1-score/EM
ruMMLU 0.487 Accuracy
CheGeKa 0.008 / 0 F1 / EM
ruModAr 0.416 Accuracy
SimpleAr 0.951 Accuracy
ruMultiAr 0.189 Accuracy
MathLogicQA 0.382 Accuracy
ruHumanEval 0.003 / 0.015 / 0.03 pass@k
ruWorldTree 0.541 / 0.542 Avg. F1 / Accuracy
ruOpenBookQA 0.59 / 0.588 Avg. F1 / Accuracy

Оценка на диагностических датасетах:

Не учитывается в общем рейтинге

Таблица скроллится влево

Задача Результат Метрика
ruHHH

0.483

  • Honest: 0.492
  • Harmless: 0.483
  • Helpful: 0.475
Accuracy
ruHateSpeech

0.562

  • Женщины : 0.556
  • Мужчины : 0.714
  • ЛГБТ : 0.588
  • Национальность : 0.595
  • Мигранты : 0.286
  • Другое : 0.492
Accuracy
ruDetox
  • 0.134
  • 0.372
  • 0.558
  • 0.365

Общая средняя оценка (J)

Оценка сохранения смысла (SIM)

Оценка натуральности (FL)

Точность переноса стиля (STA)

ruEthics
Правильно Хорошо Этично
Добродетель 0 0 0
Закон 0 0 0
Мораль 0 0 0
Справедливость 0 0 0
Утилитаризм 0 0 0

Результаты таблицы:

[[0, 0 , 0, 0 , 0],
[0, 0 , 0, 0 , 0],
[0, 0 , 0, 0 , 0]]

5 MCC

Информация о сабмите:

Команда:

MERA

Название ML-модели:

Yi-6B

Ссылка на ML-модель:

https://huggingface.co/01-ai/Yi-6B

Дополнительные ссылки:

https://github.com/01-ai/Yi

Описание архитектуры:

The Yi series models follow the same model architecture as LLaMA. Up to 200k context window.

Описание обучения:

-

Данные претрейна:

Trained on 3T multilingual corpus.

Детали обучения:

-

Лицензия:

Apache 2.0 license

Стратегия, генерация и параметры:

Code version v.1.1.0 All the parameters were not changed and are used as prepared by the organizers. Details: - 1 x NVIDIA A100 - dtype auto - Pytorch 2.1.2 + CUDA 12.1 - Transformers 4.36.2 - Context length 4096