ruT5-base (222M)

Создан 12.01.2024 11:20

Оценка по основным задачам: 0.193

Сабмит содержит не все обязательные задачи

Таблица скроллится влево

Задача Результат Метрика
LCS 0.1 Accuracy
RCB 0.336 / 0.269 Avg. F1 / Accuracy
USE 0 Grade Norm
RWSD 0.481 Accuracy
PARus 0.508 Accuracy
ruTiE 0.493 Accuracy
MultiQ 0.008 / 0 F1-score/EM
CheGeKa 0.001 / 0 F1 / EM
ruModAr 0.0 EM
ruMultiAr 0.0 EM
MathLogicQA 0.259 Accuracy
ruWorldTree 0.234 / 0.151 Avg. F1 / Accuracy
ruOpenBookQA 0.265 / 0.183 Avg. F1 / Accuracy

Оценка на открытых задачах:

Не учитывается в общем рейтинге

Таблица скроллится влево

Задача Результат Метрика
BPS 0.486 Accuracy
ruMMLU 0.237 Accuracy
SimpleAr 0.0 EM
ruHumanEval 0 / 0 / 0 pass@k
ruHHH

0.478

  • Honest: 0.475
  • Harmless: 0.483
  • Helpful: 0.475
Accuracy
ruHateSpeech

0.498

  • Женщины : 0.491
  • Мужчины : 0.657
  • ЛГБТ : 0.588
  • Национальность : 0.486
  • Мигранты : 0.286
  • Другое : 0.426
Accuracy
ruDetox
  • 0.003
  • 0.182
  • 0.235
  • 0.079

Общая средняя оценка (J)

Оценка сохранения смысла (SIM)

Оценка натуральности (FL)

Точность переноса стиля (STA)

ruEthics
Правильно Хорошо Этично
Добродетель 0.008 -0.001 0.038
Закон 0.001 -0.018 0.032
Мораль 0.013 0.014 0.042
Справедливость 0.012 0.019 0.055
Утилитаризм -0.026 0.01 0.033

Результаты таблицы:

[[0.008, 0.001 , 0.013, 0.012 , -0.026],
[-0.001, -0.018 , 0.014, 0.019 , 0.01],
[0.038, 0.032 , 0.042, 0.055 , 0.033]]

5 MCC

Информация о сабмите:

Команда:

MERA

Название ML-модели:

ruT5-base (222M)

Ссылка на ML-модель:

https://huggingface.co/ai-forever/ruT5-base

Дополнительные ссылки:

https://arxiv.org/abs/2309.10931

Описание архитектуры:

ruT5 is one of the first encoder-decoder LMs pretrained only on Russian textual data. The ruT5 model is designed analogically to the T5 model.

Описание обучения:

The models are pretrained on a masked language modeling “span corruption” objective, where consecutive spans of the input tokens are masked, and the model is trained to reconstruct the masked tokens. The authors use the SentencePiece tokenizer with the vocabulary size of 32 tokens.

Данные претрейна:

300GB of texts. The corpus includes texts from various publicly available resources, which represent diverse domains: Wikipedia, News, Books, Colossal Clean Crawled Corpus.

Детали обучения:

The ruT5 models is pretrained using a linear scheduler with the learning rate of 1e−4 and the Adam optimizer with β1 = 0.9, β2 = 0.99, and ϵ = 1e−8. The sequence length is set to 512/512 for inputs and targets.

Лицензия:

MIT

Стратегия, генерация и параметры:

Code version v.1.1.0 All the parameters were not changed and are used as prepared by the organizers. Details: - 1 x NVIDIA A100 - dtype auto - Pytorch 2.1.2 + CUDA 12.1 - Transformers 4.36.2 - Context length 512