Google's UMT5 Small

MERA Создан 12.01.2024 14:47
0.198
Общий результат
Сабмит содержит не все обязательные задачи

Оценки по задачам лидерборда

Таблица скроллится влево

Задача Результат Метрика
LCS 0.108 Accuracy
RCB 0.288 / 0.255 Accuracy F1 macro
USE 0.002 Grade norm
RWSD 0.481 Accuracy
PARus 0.52 Accuracy
ruTiE 0.5 Accuracy
MultiQ 0.003 / 0 F1 Exact match
CheGeKa 0.002 / 0 F1 Exact match
ruModAr 0.0 Exact match
ruMultiAr 0.0 Exact match
MathLogicQA 0.261 Accuracy
ruWorldTree 0.225 / 0.198 Accuracy F1 macro
ruOpenBookQA 0.255 / 0.223 Accuracy F1 macro

Оценка на открытых задачах:

Перейти к оценкам по подкатегориям

Таблица скроллится влево

Задача Результат Метрика
BPS 0.546 Accuracy
ruMMLU 0.225 Accuracy
SimpleAr 0.0 Exact match
ruHumanEval 0 / 0 / 0 Pass@k
ruHHH 0.506
ruHateSpeech 0.494
ruDetox 0.027
ruEthics
Правильно Хорошо Этично
Добродетель 0.004 -0.03 -0.007
Закон 0.019 -0.008 0.001
Мораль 0.009 -0.025 -0.02
Справедливость 0.015 -0.012 0.017
Утилитаризм 0.026 -0.008 0.021

Информация о сабмите:

Версия MERA
-
Версия Torch
-
Версия кодовой базы
-
Версия CUDA
-
Precision весов модели
-
Сид
-
Батч
-
Версия transformers
-
Количество GPU и их тип
-
Архитектура
-

Команда:

MERA

Название ML-модели:

Google's UMT5 Small

Ссылка на ML-модель:

https://huggingface.co/google/umt5-small

Дополнительные ссылки:

https://openreview.net/forum?id=kXwdL1cWOAi

Описание архитектуры:

Authors closely follow mT5 (Xue et al., 2021) for model architecture and training procedure. Specifically, thet use an encoder-decoder Transformer architecture and the span corruption pretraining objective from T5 (Raffel et al., 2020) on a multilingual corpus consisting of 101 languages plus 6 Latin-script variants (e.g. ru-Latn). They use batch size of 1024 sequences where each sequence is defined by selecting a chunk of 568 tokens from the training corpus. This is then split into 512 input and 114 target tokens. The number of training steps is 250,000.

Описание обучения:

The model architectures used in this study are the same as mT5 models, except that relative position embeddings are not shared across layers. The vocabulary size is 256,000 subwords, and byte-level fallback is enabled, so unknown tokens are broken down into UTF-8 bytes. Authors use the T5X library (Roberts et al., 2022) to train the models using Google Cloud TPUs. For pretraining, they use Adafactor optimizer (Shazeer & Stern, 2018) with a constant learning rate of 0.01 in the first 10,000 steps and inverse square root decay afterwards. For finetuning, they use Adafactor with a constant learning rate of 5e−5.

Данные претрейна:

UMT5 is pretrained on the an updated version of mC4 corpus, covering 107 languages.

Детали обучения:

Unlike mT5, authors do not use loss normalization factor. Instead they use the number of real target tokens as the effective loss normalization. Finally, they do not factorize the second moment of the Adafactor states and use momentum, neither of which are used in T5 and mT5 studies.

Лицензия:

Apache 2.0

Стратегия, генерация и параметры:

Code version v.1.1.0 All the parameters were not changed and are used as prepared by the organizers. Details: - 1 x NVIDIA A100 - dtype auto - Pytorch 2.1.2 + CUDA 12.1 - Transformers 4.36.2 - Context length 512

Развернуть информацию

Оценки по подкатегориям

Метрика: Точность
Модель, команда Честность Помощь Безопасность
Google's UMT5 Small
MERA
0.557 0.407 0.552
Модель, команда Анатомия Вирусология Астрономия Маркетинг Нутрициология Социология Менеджмент Философия История древнего мира Геронтология Эконометрика Формальная логика Факторы глобального значения Юриспунденция Микс (разнообразный домен) Мораль Бизнес-этика Биология (школьная) Физика (школьная) Человеческая сексуальность Моральные сценарии Мировые религии Общая алгебра Медицина (школьная) Машинное обучение Генетика Профессиональное законодательство PR Безопасность Химия (школьная) Компьютерная безопасность Международное право Логические ошибки Политика Клинические знания Концептуальная физика Математика (школьная) Биология (университетская) Физика (университетская) Химия (университетская) География (университетская) Профессиональная медицина Электротехника Элементарная математика Психология (университетская) Статистика (университетская) История (университетская) Математика (университетская) Бухгалтерский учет Профессиональная психология Компьютерные науки (уровень колледжа) Мировая история (университетская) Макроэкономика Микроэкономика Компьютерные науки (университетские) История европы Государство и политика
Google's UMT5 Small
MERA
0.2 0.313 0.2 0.257 0.238 0.3 0.2 0.235 0 0.4 0.182 0 0.3 0.115 0.318 0.2 0.2 0.185 0.2 0.4 0.2 0.25 0.1 0.275 0.1 0.182 0.188 0.143 0.1 0.091 0.4 0.056 0.1 0.1 0.273 0.2 0.1 0.286 0.2 0.2 0.266 0.2 0.4 0.2 0.125 0.1 0.2 0.4 0.1 0.2 0.318 0.063 0.235 0.2 0.292 0.394 0.222
Модель, команда SIM FL STA
Google's UMT5 Small
MERA
0.238 0.359 0.166
Правильно
Хорошо
Этично
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Google's UMT5 Small
MERA
0.004 0.019 0.009 0.015 0.026
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Google's UMT5 Small
MERA
-0.03 -0.008 -0.025 -0.012 -0.008
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
Google's UMT5 Small
MERA
-0.007 0.001 -0.02 0.017 0.021
Модель, команда Женщины Мужчины ЛГБТ Национальности Мигранты Другое
Google's UMT5 Small
MERA
0.481 0.629 0.412 0.514 0.429 0.459