LLM Benchmark: Поиск работы

19 моделей, 5 вакансий с hh.ru. Кликни по заголовку столбца для сортировки.

Этап 1: Фильтрация (Релевантность)

Модель получает резюме + вакансию → возвращает JSON с оценкой. Максимум 100 баллов.

Критерии: Парсинг (40) + Схема (20) + Консистентность (15) + Точность (25)

← Листай таблицу вбок →

# Модель Кач. Парс. Схема Консист. Точн. $/вызов $/1000 Латен. WSM (F1) Pen. (F2) WPM (F3) TOP. (F4)
1DeepSeek R193.638201520.60.006196.192008 мс0.74286.90.7110.319
2Llama 4 Maverick91.440201516.40.000600.60564 мс0.76591.40.7750.390
3Qwen3 235B91.040201516.00.004484.48896 мс0.68885.70.6770.300
4GPT-4.1-mini90.640201515.60.001771.77449 мс0.70989.40.7140.311
5DeepSeek V3.190.436201519.40.000750.751642 мс0.73290.40.7420.357
6GPT-4o-mini89.840201514.80.000650.65696 мс0.72289.80.7320.368
7Claude 3.5 Haiku89.840201514.80.005595.591687 мс0.65183.60.6370.288
8Qwen3 8B89.240201514.20.000550.551265 мс0.71389.20.7220.386
9o4-mini89.240201514.20.008468.46404 мс0.62281.20.5970.280
10Grok 3 Mini88.640201513.60.001801.80446 мс0.65987.30.6660.293
11Grok 4.1 Fast87.240201512.20.001331.33588 мс0.63487.20.6440.290
12Llama 4 Scout84.430201519.40.000320.32202 мс0.61184.40.6120.488
13Mistral Small 3.183.030201518.00.000150.152890 мс0.60283.00.5910.855
14Mistral Small 3.283.030201518.00.000360.36491 мс0.57383.00.5720.440
15Gemini 2.5 Flash81.630201516.60.001491.49621 мс0.49181.10.5000.229
16Claude 4.5 Haiku79.030201514.00.006396.395173 мс0.37872.20.3870.176
17Gemini Flash Lite77.830201512.80.000340.34699 мс0.44677.80.4280.432
18Gemini 2.5 Pro75.830201510.80.0338533.852456 мс0.24461.70.1660.135
19DeepSeek V3.266.028161210.00.001221.222506 мс0.11066.00.0210.105
1-е место
2-е место
3-е место

Этап 2: Cover Letter

Модель генерирует неформальное сопроводительное письмо. Максимум 100 баллов (минус штрафы за артефакты).

Критерии: Стиль/человечность (45) + Релевантность (35) + Грамматика (20). Штраф −10 за артефакты.

← Листай таблицу вбок →

# Модель Итого Стиль Релев. Грам. Штр. $/вызов $/1000 Латен. WSM (F1) Pen. (F2) WPM (F3) TOP. (F4)
1Gemini 2.5 Pro98.8453518.80.0280128.014128 мс0.81585.40.4380.336
2Grok 4.1 Fast96.642.534.1200.001281.28550 мс0.86796.60.8650.354
3Claude 4.5 Haiku95.641.83518.80.006726.721831 мс0.78588.40.7360.317
4Gemini 2.5 Flash95.04035200.001471.47554 мс0.82294.40.8220.336
5Grok 3 Mini94.639.635200.001631.63547 мс0.80993.60.8080.330
6DeepSeek V3.193.94134.118.80.000780.782874 мс0.81793.90.8250.367
7DeepSeek R193.8403518.80.004834.831675 мс0.75288.00.7250.305
8GPT-4.1-mini92.839.233.6200.001761.76373 мс0.76191.40.7620.313
9Qwen3 235B92.738.93518.80.003843.84769 мс0.73287.90.7170.298
10DeepSeek V3.292.338.53518.80.001241.241818 мс0.76192.30.7670.322
11Gemini Flash Lite91.238.532.7200.000340.34792 мс0.77891.20.7880.509
12o4-mini90.242.831.815.60.0112911.29535 мс0.63380.80.5780.271
13Qwen3 8B88.937.432.718.80.000560.56757 мс0.70488.90.7140.371
14Llama 4 Maverick88.73632.7200.000630.63666 мс0.69588.70.7050.351
15Claude 3.5 Haiku86.33632.717.60.005035.031992 мс0.56480.40.5600.239
16GPT-4o-mini82.734.228.5200.000670.67564 мс0.54482.70.5490.293
17Mistral Small 3.177.336.731.818.8−100.000150.15803 мс0.46177.30.4260.751
18Mistral Small 3.276.934.232.720−100.000370.37765 мс0.42076.90.4000.390
19Llama 4 Scout66.419.82917.60.000440.44419 мс0.15466.40.0420.295
1-е место
2-е место
3-е место