Группа «Т-Технологии» представила свою первую большую языковую модель (LLM) с гибридным режимом рассуждений — T-Pro 2.0, входящую в семейство моделей Gen-T. Сообщается, что новая модель обеспечивает более высокое качество ответов на сложные запросы при двукратной экономии вычислительных ресурсов для русскоязычных задач по сравнению с аналогами Qwen3 и DeepSeek R1-Distil.

«Т-Банк» представил ИИ-модель T-Pro 2.0 с гибридными рассуждениями, которая вдвое экономнее DeepSeek R1-Distil

Гибридные модели способны в зависимости от запроса выбирать между быстрыми, простыми ответами и глубоким анализом, что снижает затраты на вычисления при внедрении ИИ. По данным «Т-Технологий», расходы на разработку модели, включая затраты на вычислительные мощности для R&D и финального дообучения, а также зарплаты сотрудников, не превышают 120 млн рублей.

Такие модели лучше справляются со сложными аналитическими задачами, что позволяет использовать их в качестве основы для ИИ-агентов нового поколения, способных выполнять задачи без вмешательства человека. Например, в службе поддержки ИИ-агенты не просто помогают генерировать ответы, но и самостоятельно решают часть пользовательских запросов. В «Т-банке» доля таких обращений уже составляет 40 %.

Согласно данным «Т-Технологий», модель T-Pro 2.0 продемонстрировала более высокие результаты на русскоязычных бенчмарках — MERA, ruMMLU, Ru Arena Hard, ruAIME, ruLCB — по сравнению с другими открытыми моделями на 30 млрд параметров.

«Т-банк» планирует использовать новую модель для повышения качества работы своих ИИ-ассистентов, доступных всем клиентам банка, а также для повышения эффективности операционных процессов за счёт копайлот-решений и автономных агентов.

Сообщается, что благодаря переходу на внутреннюю версию T-Pro 2.0, обученную на собственных данных «Т-банка», повысилось качество работы автономных агентов поддержки: они стали на 10 % чаще решать задачи пользователей без участия оператора и дополнительных затрат на разработку или операционные процессы.

Модель T-Pro 2.0 с числом параметров 32 млрд находится в открытом доступе на платформе Hugging Face под лицензией Apache 2.0.

От admin

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *