The table will scroll to the left
Task name | Result | Metric |
---|---|---|
LCS | 0.144 | Accuracy |
RCB | 0.548 / 0.448 | Avg. F1 / Accuracy |
USE | 0.138 | Grade Norm |
RWSD | 0.677 | Accuracy |
PARus | 0.926 | Accuracy |
ruTiE | 0.828 | Accuracy |
MultiQ | 0.541 / 0.421 | F1-score/EM |
CheGeKa | 0.306 / 0.231 | F1 / EM |
ruModAr | 0.709 | EM |
ruMultiAr | 0.357 | EM |
MathLogicQA | 0.571 | Accuracy |
ruWorldTree | 0.987 / 0.987 | Avg. F1 / Accuracy |
ruOpenBookQA | 0.933 / 0.932 | Avg. F1 / Accuracy |
The table will scroll to the left
Task name | Result | Metric | ||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
BPS | 0.07 | Accuracy | ||||||||||||||||||||||||
ruMMLU | 0.847 | Accuracy | ||||||||||||||||||||||||
SimpleAr | 0.997 | EM | ||||||||||||||||||||||||
ruHumanEval | 0.049 / 0.244 / 0.488 | pass@k | ||||||||||||||||||||||||
ruHHH |
0.82
|
Accuracy | ||||||||||||||||||||||||
ruHateSpeech |
0.83
|
Accuracy | ||||||||||||||||||||||||
ruDetox |
|
Overall average score (J) Assessment of the preservation of meaning (SIM) Assessment of naturalness (FL) Style Transfer Accuracy (STA) |
||||||||||||||||||||||||
ruEthics |
Table results:
[[-0.354, -0.324
, -0.366, -0.305
, -0.273], |
5 MCC |
EnSec AI
Llama3-70B-EnSecAI-Ru-Chat
Дообученная на русский язык версия Llama-3-70B (meta-llama/Meta-Llama-3-70B-Instruct).
Для дообучения модели использовались открытые данные для SFT и DPO
Llama 3 была предварительно обучена на более чем 15 триллионах токенов данных из общедоступных источников. Данные для дообучения включают общедоступные наборы инструкций, а также более 10 миллионов примеров с аннотациями от людей.
Эта модель была дообучена с использованием 4 x A100 (80GB)
This model was trained from Meta-Llama-3-70B-Instruct, and therefore is subject to the META LLAMA 3 COMMUNITY LICENSE AGREEMENT. (https://llama.meta.com/llama3/license/)
temperature=0.6 top_p=0.9