SOLAR 10.7B Instruct

Russian_NLP Создан 03.02.2024 13:43
0.469
Общий результат
Сабмит содержит не все обязательные задачи

Оценки по задачам лидерборда

Таблица скроллится влево

Задача Результат Метрика
LCS 0.078 Accuracy
RCB 0.523 / 0.503 Accuracy F1 macro
USE 0.04 Grade norm
RWSD 0.654 Accuracy
PARus 0.828 Accuracy
ruTiE 0.7 Accuracy
MultiQ 0.205 / 0.097 F1 Exact match
CheGeKa 0.206 / 0.139 F1 Exact match
ruModAr 0.459 Exact match
ruMultiAr 0.2 Exact match
MathLogicQA 0.396 Accuracy
ruWorldTree 0.884 / 0.884 Accuracy F1 macro
ruOpenBookQA 0.825 / 0.824 Accuracy F1 macro

Оценка на открытых задачах:

Перейти к оценкам по подкатегориям

Таблица скроллится влево

Задача Результат Метрика
BPS 0.359 Accuracy
ruMMLU 0.698 Accuracy
SimpleAr 0.946 Exact match
ruHumanEval 0.013 / 0.067 / 0.134 Pass@k
ruHHH 0.702
ruHateSpeech 0.747
ruDetox 0.041
ruEthics
Правильно Хорошо Этично
Добродетель -0.349 -0.391 -0.479
Закон -0.374 -0.327 -0.451
Мораль -0.374 -0.385 -0.484
Справедливость -0.343 -0.339 -0.465
Утилитаризм -0.297 -0.32 -0.384

Информация о сабмите:

Версия MERA
-
Версия Torch
-
Версия кодовой базы
-
Версия CUDA
-
Precision весов модели
-
Сид
-
Батч
-
Версия transformers
-
Количество GPU и их тип
-
Архитектура
-

Команда:

Russian_NLP

Название ML-модели:

SOLAR 10.7B Instruct

Дополнительные ссылки:

https://arxiv.org/abs/2312.15166 https://huggingface.co/upstage/SOLAR-10.7B-v1.0

Описание архитектуры:

SOLAR 10.7B Instruct is the instructed version of SOLAR-10.7B, an advanced large language model (LLM) with 10.7 billion parameters, demonstrating superior performance in various natural language processing (NLP) tasks.

Описание обучения:

State-of-the-art instruction fine-tuning methods including supervised fine-tuning (SFT) and direct preference optimization (DPO).

Данные претрейна:

SOLAR 10.7B, a large language model (LLM) with 10.7 billion parameters, demonstrating superior performance in various natural language processing (NLP) tasks.

Детали обучения:

The following datasets were used: - c-s-ale/alpaca-gpt4-data (SFT) - Open-Orca/OpenOrca (SFT) - in-house generated data utilizing Metamath(SFT, DPO) - Intel/orca_dpo_pairs (DPO) - allenai/ultrafeedback_binarized_cleaned (DPO)

Лицензия:

cc-by-nc-4.0

Стратегия, генерация и параметры:

Code version v.1.1.0 All the parameters were not changed and are used as prepared by the organizers. Details: - 1 x NVIDIA A100 - dtype auto - Pytorch 2.1.2 + CUDA 12.1 - Transformers 4.36.2 - Context length 4096

Развернуть информацию

Оценки по подкатегориям

Метрика: Точность
Модель, команда Честность Помощь Безопасность
SOLAR 10.7B Instruct
Russian_NLP
0.623 0.729 0.759
Модель, команда Анатомия Вирусология Астрономия Маркетинг Нутрициология Социология Менеджмент Философия История древнего мира Геронтология Эконометрика Формальная логика Факторы глобального значения Юриспунденция Микс (разнообразный домен) Мораль Бизнес-этика Биология (школьная) Физика (школьная) Человеческая сексуальность Моральные сценарии Мировые религии Общая алгебра Медицина (школьная) Машинное обучение Генетика Профессиональное законодательство PR Безопасность Химия (школьная) Компьютерная безопасность Международное право Логические ошибки Политика Клинические знания Концептуальная физика Математика (школьная) Биология (университетская) Физика (университетская) Химия (университетская) География (университетская) Профессиональная медицина Электротехника Элементарная математика Психология (университетская) Статистика (университетская) История (университетская) Математика (университетская) Бухгалтерский учет Профессиональная психология Компьютерные науки (уровень колледжа) Мировая история (университетская) Макроэкономика Микроэкономика Компьютерные науки (университетские) История европы Государство и политика
SOLAR 10.7B Instruct
Russian_NLP
0.7 0.75 0.5 0.629 0.857 0.9 0.8 0.824 0.6 0.9 0.727 0.6 0.6 0.654 0.727 0.4 0.9 0.704 0.7 1 0.2 0.769 0.9 0.608 0.5 0.818 0.563 0.786 0.9 0.727 0.4 0.667 0.5 0.8 0.727 0.8 0.7 0.762 0.3 0.6 0.759 0.8 0.9 0.6 0.813 0.4 1 0.4 0.7 1 0.727 0.875 0.853 0.733 0.375 0.455 0.741
Модель, команда SIM FL STA
SOLAR 10.7B Instruct
Russian_NLP
0.339 0.572 0.183
Правильно
Хорошо
Этично
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
SOLAR 10.7B Instruct
Russian_NLP
-0.349 -0.374 -0.374 -0.343 -0.297
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
SOLAR 10.7B Instruct
Russian_NLP
-0.391 -0.327 -0.385 -0.339 -0.32
Модель, команда Добродетель Закон Мораль Справедливость Утилитаризм
SOLAR 10.7B Instruct
Russian_NLP
-0.479 -0.451 -0.484 -0.465 -0.384
Модель, команда Женщины Мужчины ЛГБТ Национальности Мигранты Другое
SOLAR 10.7B Instruct
Russian_NLP
0.769 0.657 0.647 0.784 0.429 0.803