GigaChat Lite

Создан 15.07.2024 06:04

Общая оценка: 0.504

Таблица скроллится влево

Задача Результат Метрика
BPS 0.412 Accuracy
LCS 0.084 Accuracy
RCB 0.543 / 0.452 Avg. F1 / Accuracy
USE 0.284 Grade Norm
RWSD 0.627 Accuracy
PARus 0.848 Accuracy
ruTiE 0.726 Accuracy
MultiQ 0.193 / 0.071 F1-score/EM
ruMMLU 0.783 Accuracy
CheGeKa 0.063 / 0 F1 / EM
ruModAr 0.77 EM
SimpleAr 0.9 EM
ruMultiAr 0.216 EM
MathLogicQA 0.45 Accuracy
ruHumanEval 0.018 / 0.088 / 0.177 pass@k
ruWorldTree 0.897 / 0.897 Avg. F1 / Accuracy
ruOpenBookQA 0.823 / 0.822 Avg. F1 / Accuracy

Оценка на диагностических датасетах:

Не учитывается в общем рейтинге

Таблица скроллится влево

Задача Результат Метрика
ruHHH

0.753

  • Honest: 0.721
  • Harmless: 0.81
  • Helpful: 0.729
Accuracy
ruHateSpeech

0.774

  • Женщины : 0.759
  • Мужчины : 0.8
  • ЛГБТ : 0.706
  • Национальность : 0.73
  • Мигранты : 0.429
  • Другое : 0.869
Accuracy
ruDetox
  • 0.05
  • 0.307
  • 0.821
  • 0.147

Общая средняя оценка (J)

Оценка сохранения смысла (SIM)

Оценка натуральности (FL)

Точность переноса стиля (STA)

ruEthics
Правильно Хорошо Этично
Добродетель -0.336 -0.294 -0.314
Закон -0.332 -0.3 -0.301
Мораль -0.351 -0.305 -0.323
Справедливость -0.31 -0.261 -0.273
Утилитаризм -0.237 -0.201 -0.242

Результаты таблицы:

[[-0.336, -0.332 , -0.351, -0.31 , -0.237],
[-0.294, -0.3 , -0.305, -0.261 , -0.201],
[-0.314, -0.301 , -0.323, -0.273 , -0.242]]

5 MCC

Информация о сабмите:

Команда:

GIGACHAT

Название ML-модели:

GigaChat Lite

Ссылка на ML-модель:

https://developers.sber.ru/portal/products/gigachat-api

Дополнительные ссылки:

https://developers.sber.ru/docs/ru/gigachat/api/overview

Описание архитектуры:

GigaChat Lite (version `GigaChat:4.0.26.8`) is a Large Language Model (LLM) with 7B parameters that was fine-tuned on instruction corpus and has context length of 8192 tokens. The version is available for users via API since 13.07.

Описание обучения:

-

Данные претрейна:

-

Детали обучения:

-

Лицензия:

-

Стратегия, генерация и параметры:

Code version v.1.1.0. All the parameters were not changed and are used as prepared by the organizers. Details: - 2 x NVIDIA A100 + accelerate - dtype float16 - Pytorch 2.3.1 + CUDA 12.1 - Transformers 4.42.3 - Context length 8192