ruT5-large (737M)

MERA Создан 12.01.2024 11:21
0.19
Общий результат
Сабмит содержит не все обязательные задачи

Оценки по задачам лидерборда

Таблица скроллится влево

Задача Результат Метрика
LCS 0.11 Accuracy
RCB 0.326 / 0.296 Accuracy F1 macro
USE 0 Grade norm
RWSD 0.485 Accuracy
PARus 0.498 Accuracy
ruTiE 0.505 Accuracy
MultiQ 0.01 / 0 F1 Exact match
CheGeKa 0 / 0 F1 Exact match
ruModAr 0.0 Exact match
ruMultiAr 0.0 Exact match
MathLogicQA 0.254 Accuracy
ruWorldTree 0.259 / 0.159 Accuracy F1 macro
ruOpenBookQA 0.263 / 0.158 Accuracy F1 macro

Оценка на открытых задачах:

Перейти к оценкам по подкатегориям

Таблица скроллится влево

Задача Результат Метрика
BPS 0.402 Accuracy
ruMMLU 0.24 Accuracy
SimpleAr 0.0 Exact match
ruHumanEval 0 / 0 / 0 Pass@k
ruHHH 0.534
ruHateSpeech 0.46
ruDetox 0.193
ruEthics
Правильно Хорошо Этично
Добродетель 0.047 0.084 0.017
Закон 0.029 0.058 -0.026
Мораль 0.02 0.055 0.002
Справедливость 0.051 0.081 -0.006
Утилитаризм 0.034 0.055 0.028

Информация о сабмите:

Версия MERA
-
Версия Torch
-
Версия кодовой базы
-
Версия CUDA
-
Precision весов модели
-
Сид
-
Батч
-
Версия transformers
-
Количество GPU и их тип
-
Архитектура
-

Команда:

MERA

Название ML-модели:

ruT5-large (737M)

Ссылка на ML-модель:

https://huggingface.co/ai-forever/ruT5-large

Дополнительные ссылки:

https://arxiv.org/abs/2309.10931

Описание архитектуры:

ruT5 is one of the first encoder-decoder LMs pretrained only on Russian textual data. The ruT5 model is designed analogically to the T5 model.

Описание обучения:

The models are pretrained on a masked language modeling “span corruption” objective, where consecutive spans of the input tokens are masked, and the model is trained to reconstruct the masked tokens. The authors use the SentencePiece tokenizer with the vocabulary size of 32 tokens.

Данные претрейна:

300GB of texts. The corpus includes texts from various publicly available resources, which represent diverse domains: Wikipedia, News, Books, Colossal Clean Crawled Corpus.

Детали обучения:

The ruT5 models is pretrained using a linear scheduler with the learning rate of 1e−4 and the Adam optimizer with β1 = 0.9, β2 = 0.99, and ϵ = 1e−8. The sequence length is set to 512/512 for inputs and targets.

Лицензия:

MIT

Стратегия, генерация и параметры:

Code version v.1.1.0 All the parameters were not changed and are used as prepared by the organizers. Details: - 1 x NVIDIA A100 - dtype auto - Pytorch 2.1.2 + CUDA 12.1 - Transformers 4.36.2 - Context length 512

Развернуть информацию

Оценки по подкатегориям

Метрика: Точность
Модель, команда Честность Помощь Безопасность
ruT5-large (737M)
MERA
0.525 0.525 0.552
Модель, команда Анатомия Вирусология Астрономия Маркетинг Нутрициология Социология Менеджмент Философия История древнего мира Геронтология Эконометрика Формальная логика Факторы глобального значения Юриспунденция Микс (разнообразный домен) Мораль Бизнес-этика Биология (школьная) Физика (школьная) Человеческая сексуальность Моральные сценарии Мировые религии Общая алгебра Медицина (школьная) Машинное обучение Генетика Профессиональное законодательство PR Безопасность Химия (школьная) Компьютерная безопасность Международное право Логические ошибки Политика Клинические знания Концептуальная физика Математика (школьная) Биология (университетская) Физика (университетская) Химия (университетская) География (университетская) Профессиональная медицина Электротехника Элементарная математика Психология (университетская) Статистика (университетская) История (университетская) Математика (университетская) Бухгалтерский учет Профессиональная психология Компьютерные науки (уровень колледжа) Мировая история (университетская) Макроэкономика Микроэкономика Компьютерные науки (университетские) История европы Государство и политика
ruT5-large (737M)
MERA
0.1 0.125 0.1 0.2 0.238 0.1 0.4 0.235 0.4 0.2 0.091 0 0.2 0.115 0.227 0 0.2 0.37 0.3 0.2 0.2 0.269 0.1 0.216 0.2 0.273 0.313 0.214 0.2 0.364 0.5 0 0.1 0.5 0.182 0.1 0.1 0.476 0.3 0.2 0.266 0.2 0.3 0.1 0.25 0.1 0.4 0.5 0.3 0.3 0.273 0.188 0.265 0.333 0.333 0.273 0.222
Модель, команда SIM FL STA
ruT5-large (737M)
MERA
0.4 0.671 0.593
Правильно
Хорошо
Этично
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
ruT5-large (737M)
MERA
0.047 0.029 0.02 0.051 0.034
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
ruT5-large (737M)
MERA
0.084 0.058 0.055 0.081 0.055
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
ruT5-large (737M)
MERA
0.017 -0.026 0.002 -0.006 0.028
Модель, команда Женщины Мужчины ЛГБТ Национальности Мигранты Другое
ruT5-large (737M)
MERA
0.481 0.343 0.353 0.405 0.714 0.525