adblock check

Т-Банк представил LLM с гибридным режимом рассуждений: модель обходит Qwen3 и DeepSeek R1

Представители компании заявили, что теперь модели можно давать задания, на решение которых у человека уходит около 8 минут. Это огромный прогресс

Сегодня, 18 июля, российская технологическая компания «Т-Технологии» официально представила свою первую большую языковую модель с поддержкой гибридного режима рассуждений под названием T-Pro 2.0. Основное преимущество подобных LLM в том, что они могут давать быстрые ответы на простые вопросы или заниматься глубокой аналитикой в случае тяжёлых запросов, позволяя существенно снизить расходы при внедрении искусственного интеллекта в реальные проекты. И, что немаловажно, российская компания создала свою модель с относительно небольшим бюджетом — представители бренда заявили, что общие расходы на разработку T-Pro 2.0 составили всего 120 миллионов рублей.

Представители компании отмечают, что подобные большие языковые модели отлично справляются со сложными задачами, требующими глубокой аналитики, так что такие LLM можно считать условной технической базой для создания передовых ИИ-агентов, которые могут взаимодействовать с различного рода интерфейсами и выполнять поставленные задачи без участия со стороны специалиста-человека. К примеру, в официальном пресс-релизе указано, что в разделе поддержки ИИ-агенты могут не просто генерировать ответы на вопросы клиентов, но и решать определённые вопросы без необходимости подключать к задаче оператора. В «Т-Банке» на данный момент доля обращений, обрабатываемых таким образом, уже составила 45%.

Т-Банк представил LLM с гибридным режимом рассуждений: модель обходит Qwen3 и DeepSeek R1
Модель T-Pro 2.0 на 32 миллиарда параметров доступна на платформе Hugging Face под лицензией Apache 2.0

Кроме того, благодаря поддержке «рассуждений» российская большая языковая модель научилась планировать действия, выдвигать гипотезы и самостоятельно их же опровергать, а также структурно рассуждать над решением вопроса. Это позволило давать LLM более сложные задачи, чем раньше.

«Если раньше моделям можно было дать автономную задачу, на которую в среднем у человека уходит 30 секунд, то моделям с режимом рассуждений можно поручать задачи на которые у человека уходит в среднем 8 минут», — цитата из официального пресс-релиза.

Также представители компании отмечают, что T-Pro 2.0 является лидером в своём классе, так как данная большая языковая модель способна выдавать более качественные ответы, чем другие открытые LLM с 30 миллиардами параметров. Это, без всякого сомнения, огромное достижение.

Т-Банк представил LLM с гибридным режимом рассуждений: модель обходит Qwen3 и DeepSeek R1

Правда, стоит уточнить, что преимущество T-Pro 2.0 имеет только в случае с прогоном в русскоязычных бенчмарках MERA, ruMMLU, Ru Arena Hard, ru AIME и ru LCB.

Источник

ИИ ИИ
11,7K участников
Вступить
4 комментария по лайкам по дате
Оставьте комментарий...
Оставьте комментарий...
Читаю новости про новые языковые модели и в каждой говорится, что она лучше чем… В общем все лучше друг друга )
дак оно так и есть — каждая новая модель лучше предыдущей старой
их просто развелось так много, что иногда голова кругом идёт))
Мне это напоминает былые времена, когда на слайдах каждого нового китайского смартфона были сравнения с айфоном. «У нас лучше, больше, тоньше, быстрее, ярче...» и всё в таком духе.
Смешнее всего то что по сути каждая новая Языковая модель просто сворована у предыдущих разрабво. Яндекс со своей нейронкой палятся на это знатно. Правда при всех возможностях ощущается что без подписки Алиса умнее и адекватнее. Ибо даже грок такую наркоманию не выдает.