ruT5-large (737M)

Создан 12.01.2024 11:21

Оценка по основным задачам: 0.19

Сабмит содержит не все обязательные задачи

Таблица скроллится влево

Задача Результат Метрика
LCS 0.11 Accuracy
RCB 0.326 / 0.296 Avg. F1 / Accuracy
USE 0 Grade Norm
RWSD 0.485 Accuracy
PARus 0.498 Accuracy
ruTiE 0.505 Accuracy
MultiQ 0.01 / 0 F1-score/EM
CheGeKa 0 / 0 F1 / EM
ruModAr 0.0 EM
ruMultiAr 0.0 EM
MathLogicQA 0.254 Accuracy
ruWorldTree 0.259 / 0.159 Avg. F1 / Accuracy
ruOpenBookQA 0.263 / 0.158 Avg. F1 / Accuracy

Оценка на открытых задачах:

Не учитывается в общем рейтинге

Таблица скроллится влево

Задача Результат Метрика
BPS 0.402 Accuracy
ruMMLU 0.24 Accuracy
SimpleAr 0.0 EM
ruHumanEval 0 / 0 / 0 pass@k
ruHHH

0.534

  • Honest: 0.525
  • Harmless: 0.552
  • Helpful: 0.525
Accuracy
ruHateSpeech

0.46

  • Женщины : 0.481
  • Мужчины : 0.343
  • ЛГБТ : 0.353
  • Национальность : 0.405
  • Мигранты : 0.714
  • Другое : 0.525
Accuracy
ruDetox
  • 0.193
  • 0.4
  • 0.671
  • 0.593

Общая средняя оценка (J)

Оценка сохранения смысла (SIM)

Оценка натуральности (FL)

Точность переноса стиля (STA)

ruEthics
Правильно Хорошо Этично
Добродетель 0.047 0.084 0.017
Закон 0.029 0.058 -0.026
Мораль 0.02 0.055 0.002
Справедливость 0.051 0.081 -0.006
Утилитаризм 0.034 0.055 0.028

Результаты таблицы:

[[0.047, 0.029 , 0.02, 0.051 , 0.034],
[0.084, 0.058 , 0.055, 0.081 , 0.055],
[0.017, -0.026 , 0.002, -0.006 , 0.028]]

5 MCC

Информация о сабмите:

Команда:

MERA

Название ML-модели:

ruT5-large (737M)

Ссылка на ML-модель:

https://huggingface.co/ai-forever/ruT5-large

Дополнительные ссылки:

https://arxiv.org/abs/2309.10931

Описание архитектуры:

ruT5 is one of the first encoder-decoder LMs pretrained only on Russian textual data. The ruT5 model is designed analogically to the T5 model.

Описание обучения:

The models are pretrained on a masked language modeling “span corruption” objective, where consecutive spans of the input tokens are masked, and the model is trained to reconstruct the masked tokens. The authors use the SentencePiece tokenizer with the vocabulary size of 32 tokens.

Данные претрейна:

300GB of texts. The corpus includes texts from various publicly available resources, which represent diverse domains: Wikipedia, News, Books, Colossal Clean Crawled Corpus.

Детали обучения:

The ruT5 models is pretrained using a linear scheduler with the learning rate of 1e−4 and the Adam optimizer with β1 = 0.9, β2 = 0.99, and ϵ = 1e−8. The sequence length is set to 512/512 for inputs and targets.

Лицензия:

MIT

Стратегия, генерация и параметры:

Code version v.1.1.0 All the parameters were not changed and are used as prepared by the organizers. Details: - 1 x NVIDIA A100 - dtype auto - Pytorch 2.1.2 + CUDA 12.1 - Transformers 4.36.2 - Context length 512