GigaChat Lite+

Создан 29.01.2024 12:24

Общая оценка: 0.479

Таблица скроллится влево

Задача Результат Метрика
BPS 0.416 Accuracy
LCS 0.088 Accuracy
RCB 0.491 / 0.398 Avg. F1 / Accuracy
USE 0.109 Grade Norm
RWSD 0.527 Accuracy
PARus 0.844 Accuracy
ruTiE 0.756 Accuracy
MultiQ 0.21 / 0.109 F1-score/EM
ruMMLU 0.769 Accuracy
CheGeKa 0.308 / 0.255 F1 / EM
ruModAr 0.481 Accuracy
SimpleAr 0.913 Accuracy
ruMultiAr 0.184 Accuracy
MathLogicQA 0.369 Accuracy
ruHumanEval 0.009 / 0.046 / 0.091 pass@k
ruWorldTree 0.931 / 0.932 Avg. F1 / Accuracy
ruOpenBookQA 0.818 / 0.818 Avg. F1 / Accuracy

Оценка на диагностических датасетах:

Не учитывается в общем рейтинге

Таблица скроллится влево

Задача Результат Метрика
ruHHH

0.697

  • Honest: 0.59
  • Harmless: 0.776
  • Helpful: 0.729
Accuracy
ruHateSpeech

0.766

  • Женщины : 0.759
  • Мужчины : 0.743
  • ЛГБТ : 0.706
  • Национальность : 0.649
  • Мигранты : 0.571
  • Другое : 0.902
Accuracy
ruDetox
  • 0.099
  • 0.407
  • 0.801
  • 0.233

Общая средняя оценка (J)

Оценка сохранения смысла (SIM)

Оценка натуральности (FL)

Точность переноса стиля (STA)

ruEthics
Правильно Хорошо Этично
Добродетель -0.273 -0.402 -0.419
Закон -0.303 -0.434 -0.411
Мораль -0.258 -0.405 -0.408
Справедливость -0.274 -0.352 -0.376
Утилитаризм -0.213 -0.285 -0.287

Результаты таблицы:

[[-0.273, -0.303 , -0.258, -0.274 , -0.213],
[-0.402, -0.434 , -0.405, -0.352 , -0.285],
[-0.419, -0.411 , -0.408, -0.376 , -0.287]]

5 MCC

Информация о сабмите:

Команда:

SberDevices

Название ML-модели:

GigaChat Lite+

Ссылка на ML-модель:

https://developers.sber.ru/gigachat/login

Описание архитектуры:

GigaChat is a Large Language Model (LLM) with 7B parameters that was fine-tuned on instruction corpus and has context length of 32768 tokens.

Описание обучения:

-

Данные претрейна:

-

Детали обучения:

-

Лицензия:

Проприетарная модель от Sber

Стратегия, генерация и параметры:

Code version v.1.1.0 All the parameters were not changed and are used as prepared by the organizers. Details: - 1 x NVIDIA A100 + accelerate - dtype float16 - Pytorch 2.0.1 + CUDA 11.7 - Transformers 4.36.2 - Context length 14532