ruT5-base (222M)

MERA Создан 12.01.2024 11:20
0.193
Общий результат
Сабмит содержит не все обязательные задачи

Оценки по задачам лидерборда

Таблица скроллится влево

Задача Результат Метрика
LCS 0.1 Accuracy
RCB 0.336 / 0.269 Accuracy F1 macro
USE 0 Grade norm
RWSD 0.481 Accuracy
PARus 0.508 Accuracy
ruTiE 0.493 Accuracy
MultiQ 0.008 / 0 F1 Exact match
CheGeKa 0.001 / 0 F1 Exact match
ruModAr 0.0 Exact match
ruMultiAr 0.0 Exact match
MathLogicQA 0.259 Accuracy
ruWorldTree 0.234 / 0.151 Accuracy F1 macro
ruOpenBookQA 0.265 / 0.183 Accuracy F1 macro

Оценка на открытых задачах:

Перейти к оценкам по подкатегориям

Таблица скроллится влево

Задача Результат Метрика
BPS 0.486 Accuracy
ruMMLU 0.237 Accuracy
SimpleAr 0.0 Exact match
ruHumanEval 0 / 0 / 0 Pass@k
ruHHH 0.478
ruHateSpeech 0.498
ruDetox 0.003
ruEthics
Правильно Хорошо Этично
Добродетель 0.008 -0.001 0.038
Закон 0.001 -0.018 0.032
Мораль 0.013 0.014 0.042
Справедливость 0.012 0.019 0.055
Утилитаризм -0.026 0.01 0.033

Информация о сабмите:

Версия MERA
-
Версия Torch
-
Версия кодовой базы
-
Версия CUDA
-
Precision весов модели
-
Сид
-
Батч
-
Версия transformers
-
Количество GPU и их тип
-
Архитектура
-

Команда:

MERA

Название ML-модели:

ruT5-base (222M)

Ссылка на ML-модель:

https://huggingface.co/ai-forever/ruT5-base

Дополнительные ссылки:

https://arxiv.org/abs/2309.10931

Описание архитектуры:

ruT5 is one of the first encoder-decoder LMs pretrained only on Russian textual data. The ruT5 model is designed analogically to the T5 model.

Описание обучения:

The models are pretrained on a masked language modeling “span corruption” objective, where consecutive spans of the input tokens are masked, and the model is trained to reconstruct the masked tokens. The authors use the SentencePiece tokenizer with the vocabulary size of 32 tokens.

Данные претрейна:

300GB of texts. The corpus includes texts from various publicly available resources, which represent diverse domains: Wikipedia, News, Books, Colossal Clean Crawled Corpus.

Детали обучения:

The ruT5 models is pretrained using a linear scheduler with the learning rate of 1e−4 and the Adam optimizer with β1 = 0.9, β2 = 0.99, and ϵ = 1e−8. The sequence length is set to 512/512 for inputs and targets.

Лицензия:

MIT

Стратегия, генерация и параметры:

Code version v.1.1.0 All the parameters were not changed and are used as prepared by the organizers. Details: - 1 x NVIDIA A100 - dtype auto - Pytorch 2.1.2 + CUDA 12.1 - Transformers 4.36.2 - Context length 512

Развернуть информацию

Оценки по подкатегориям

Метрика: Точность
Модель, команда Честность Помощь Безопасность
ruT5-base (222M)
MERA
0.475 0.475 0.483
Модель, команда Анатомия Вирусология Астрономия Маркетинг Нутрициология Социология Менеджмент Философия История древнего мира Геронтология Эконометрика Формальная логика Факторы глобального значения Юриспунденция Микс (разнообразный домен) Мораль Бизнес-этика Биология (школьная) Физика (школьная) Человеческая сексуальность Моральные сценарии Мировые религии Общая алгебра Медицина (школьная) Машинное обучение Генетика Профессиональное законодательство PR Безопасность Химия (школьная) Компьютерная безопасность Международное право Логические ошибки Политика Клинические знания Концептуальная физика Математика (школьная) Биология (университетская) Физика (университетская) Химия (университетская) География (университетская) Профессиональная медицина Электротехника Элементарная математика Психология (университетская) Статистика (университетская) История (университетская) Математика (университетская) Бухгалтерский учет Профессиональная психология Компьютерные науки (уровень колледжа) Мировая история (университетская) Макроэкономика Микроэкономика Компьютерные науки (университетские) История европы Государство и политика
ruT5-base (222M)
MERA
0.1 0.375 0.2 0.257 0.286 0.3 0.267 0.176 0.3 0.2 0.182 0.3 0.1 0.231 0.318 0.2 0.3 0.407 0.4 0.2 0.2 0.154 0.5 0.294 0.2 0.091 0.188 0.214 0.2 0.182 0.4 0.111 0 0.2 0.273 0.1 0.3 0.429 0.1 0.1 0.228 0.2 0.3 0.2 0.313 0.1 0.4 0.2 0.3 0.2 0.273 0.063 0.324 0.4 0.083 0.182 0.185
Модель, команда SIM FL STA
ruT5-base (222M)
MERA
0.182 0.235 0.079
Правильно
Хорошо
Этично
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
ruT5-base (222M)
MERA
0.008 0.001 0.013 0.012 -0.026
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
ruT5-base (222M)
MERA
-0.001 -0.018 0.014 0.019 0.01
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
ruT5-base (222M)
MERA
0.038 0.032 0.042 0.055 0.033
Модель, команда Женщины Мужчины ЛГБТ Национальности Мигранты Другое
ruT5-base (222M)
MERA
0.491 0.657 0.588 0.486 0.286 0.426