mGPT 1.3B

MERA Создан 12.01.2024 11:17
0.198
Общий результат
Сабмит содержит не все обязательные задачи

Оценки по задачам лидерборда

Таблица скроллится влево

Задача Результат Метрика
LCS 0.136 Accuracy
RCB 0.333 / 0.167 Accuracy F1 macro
USE 0 Grade norm
RWSD 0.519 Accuracy
PARus 0.498 Accuracy
ruTiE 0.5 Accuracy
MultiQ 0.055 / 0.014 F1 Exact match
CheGeKa 0.004 / 0 F1 Exact match
ruModAr 0.001 Exact match
ruMultiAr 0.012 Exact match
MathLogicQA 0.258 Accuracy
ruWorldTree 0.251 / 0.225 Accuracy F1 macro
ruOpenBookQA 0.245 / 0.193 Accuracy F1 macro

Оценка на открытых задачах:

Перейти к оценкам по подкатегориям

Таблица скроллится влево

Задача Результат Метрика
BPS 0.449 Accuracy
ruMMLU 0.241 Accuracy
SimpleAr 0.007 Exact match
ruHumanEval 0 / 0 / 0 Pass@k
ruHHH 0.478
ruHateSpeech 0.543
ruDetox 0.35
ruEthics
Правильно Хорошо Этично
Добродетель 0.071 0.055 0.03
Закон 0.083 0.074 0.051
Мораль 0.092 0.079 0.053
Справедливость 0.075 0.075 0.046
Утилитаризм 0.12 0.085 0.075

Информация о сабмите:

Версия MERA
-
Версия Torch
-
Версия кодовой базы
-
Версия CUDA
-
Precision весов модели
-
Сид
-
Батч
-
Версия transformers
-
Количество GPU и их тип
-
Архитектура
-

Команда:

MERA

Название ML-модели:

mGPT 1.3B

Ссылка на ML-модель:

https://huggingface.co/ai-forever/mGPT

Дополнительные ссылки:

https://arxiv.org/pdf/2204.07580.pdf

Описание архитектуры:

The mGPT architecture is based on GPT-3. We use the architecture description by Brown et al., the GPT-2 code base (Radford et al., 2019) from HuggingFace (Wolf et al., 2020) and MegatronLM (Shoeybi et al., 2020). With all the other hyperparameters equal, GPT-3 has fewer layers (Layers: 48 vs. 24) but a larger hidden size (dmodel: 1600 vs. 2048) as opposed to GPT-2. GPT-3 also alternates the classic dense and sparse attention layers (Child et al., 2019).

Описание обучения:

LM was pretrained with a total batch size of 2048 and a context window of 512 tokens. The total number of the training steps is 600k, and the models have seen 400B tokens during pretraining. The pretraining took 22 days on a cluster of 512 V100 GPUs for mGPT13B.

Данные претрейна:

The pretraining corpus represents a collection of documents from Wikipedia and C4. The Wikipedia texts are extracted from the dumps (v. 20201101) with WikiExtractor (Attardi, 2015). The C4 data is downloaded using the Tensorflow datasets(Paper, 2021).

Детали обучения:

Fixed hyperparameters: vocabulary size of 100k, learning rate of 2e−4, and batch size of 4.

Лицензия:

MIT

Стратегия, генерация и параметры:

Code version v.1.1.0 All the parameters were not changed and are used as prepared by the organizers. Details: - 1 x NVIDIA A100 - dtype auto - Pytorch 2.1.2 + CUDA 12.1 - Transformers 4.36.2 - Context length 2048

Развернуть информацию

Оценки по подкатегориям

Метрика: Точность
Модель, команда Честность Помощь Безопасность
mGPT 1.3B
MERA
0.492 0.475 0.466
Модель, команда Анатомия Вирусология Астрономия Маркетинг Нутрициология Социология Менеджмент Философия История древнего мира Геронтология Эконометрика Формальная логика Факторы глобального значения Юриспунденция Микс (разнообразный домен) Мораль Бизнес-этика Биология (школьная) Физика (школьная) Человеческая сексуальность Моральные сценарии Мировые религии Общая алгебра Медицина (школьная) Машинное обучение Генетика Профессиональное законодательство PR Безопасность Химия (школьная) Компьютерная безопасность Международное право Логические ошибки Политика Клинические знания Концептуальная физика Математика (школьная) Биология (университетская) Физика (университетская) Химия (университетская) География (университетская) Профессиональная медицина Электротехника Элементарная математика Психология (университетская) Статистика (университетская) История (университетская) Математика (университетская) Бухгалтерский учет Профессиональная психология Компьютерные науки (уровень колледжа) Мировая история (университетская) Макроэкономика Микроэкономика Компьютерные науки (университетские) История европы Государство и политика
mGPT 1.3B
MERA
0.4 0.125 0.3 0.257 0.19 0.3 0.2 0.118 0.2 0.2 0.273 0.7 0.4 0.346 0.273 0.3 0.2 0.222 0.4 0.4 0.3 0.192 0.2 0.216 0.2 0.273 0.313 0.143 0.4 0.273 0.2 0.389 0.2 0.3 0.455 0.2 0.1 0.143 0.3 0.2 0.215 0.2 0.3 0.2 0.313 0.2 0.1 0.2 0.3 0.2 0.182 0.5 0.324 0 0.167 0.182 0.111
Модель, команда SIM FL STA
mGPT 1.3B
MERA
0.721 0.601 0.734
Правильно
Хорошо
Этично
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
mGPT 1.3B
MERA
0.071 0.083 0.092 0.075 0.12
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
mGPT 1.3B
MERA
0.055 0.074 0.079 0.075 0.085
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
mGPT 1.3B
MERA
0.03 0.051 0.053 0.046 0.075
Модель, команда Женщины Мужчины ЛГБТ Национальности Мигранты Другое
mGPT 1.3B
MERA
0.519 0.686 0.588 0.595 0.286 0.492