Как я учился работать c GigaChat в разных вариантах
| Продукт: | частный заказ |
| Автор: | Admin |
| Дата: | 2025-11-06 15:17:18 |
| Просмотров: | 75 |
| Вид материала: | публикация |
Я программирую со школы с 90-х годов, по образованию юрист, опыт работы в основном в страховых компаниях, но программированием не прекращал заниматься все эти годы. В 2025 году активно стал изучать LLM, как доступные облачные типа Qwen, DeepSeek, так и не очень доступные OpenAI ChatGPT, xAI Grok. Также постоянно проверяю новые доступные локальные модели типа Qwen 3/Gemma 3/T-Pro 2.0/gpt-oss/Mistral. Раньше активно программировал на Visual Basic, Delphi 7/2005, в последние несколько лет перешел на Python.
Мое знакомство с GigaChat произошло через LM Studio. Увидел в списке доступных моделей GigaChat, скачал, попробовал и понял, что использовать так же, как Qwen, Mistral и другие не получается. В причинах не стал разбираться, просто ответы были сильно хуже других доступных локальных моделей. Ну и ладно, до поры, до времени забыл про GigaChat.
Осенью 2025 года удалось побывать на мероприятии Big Tech Hight. Очень понравились презентации в Сбере, особенно доклад по мультиагента GigaAgent ReAct + REPL. По сравнению с тем, что я видел и использовал ранее это было реально круто. Поскольку это открытый проект, то я скачал его себе и с некоторыми сложностями запустил. Надо отметить, что исходных код открытый, но при этом проект использует GigaChat API.
Несколько слов про сам API GigaChat и цены на него, потом уже о том, что на практике получилось сделать. Получить токен API GigaChat несложно, есть бесплатный тариф условно пригодный для тестов, за что Сбербанку спасибо. Однако, как выяснилось, на практике бесплатный токен использовать для проекта GigaAgent ReAct + REPL невозможно, поскольку на бесплатном тарифе только 50000 токенов бесплатно для модели Max-2, 50000 токенов бесплатно для модели Pro-2, и еще 900 000 токенов для модели MINI. Первый грустный факт оказался таким, что проект GigaAgent ReAct + REPL очень прожорлив до токенов, лимиты 50000 + 50000 улетели за несколько дней тестов и доработок. Второй грустный факт оказался в том, что цены на платные тарифы лично для меня оказались совершенно неприемлемыми. 1 000 000 токенов для моделей Max-2/Pro-2 стоит от 1500 рублей. Даже не хочется сравнивать с ценами на токены DeepSeek/Grok/ChatGPT. При той скорости, что использует токены GigaAgent ReAct + REPL этого хватило бы на запросов 30 примерно. Ну и третий грустный факт оказался таким, что GigaAgent ReAct + REPL не работает с моделью Mini/Lite из-за маленького контекста. Проекту нужно не менее 12000-15000 токенов контекста для работы, а при каких-то задачах, наверное, и больше.
Спасибо доброму человеку, подсказал, что можно временно использовать для тестов доступ к API GigaChat на сервере Cloud.ru. Я сначала очень обрадовался, поскольку это была хорошая возможность продолжить разбираться с GigaChat и мультагентом. Но радость оказалась недолгой. Я не смог просто заменить путь к API и токен на новые, пришлось сильно переделывать код, чтобы вместо GigaChat API GigaAgent смог использовать OpenAI API, так как вариант от Cloud.ru оказался несовместимым с GigaChat API. Я добавил в мультагента возможности работы с портфелем Tinkoff API (Т-Инвестиции API) и Google Calendar. Даже было выложил код на GitHub, показал одному из разработчиков GigaAgent ReAct + REPL свои доработки. Никакого интереса это не вызвало, и понял, что такая "химера", работающая через библиотеку OpenAI с GigaChat API мало кому будет нужна и удалил проект с GitHub. В качестве эксперимента это было очень интересно, люблю решать нестандартные задачи, но если практическая ценность околонулевая, то можно и другими вещами, более полезными, заняться.
В итоге несколько месяцев я использовал модель GigaChat-Max-2 через Cloud.ru и смог получить о ней свое представление. С одной стороны, модель вполне рабочая, для тех задач что я использовал (тест агента для сайта, который отвечает на вопросы пользователей по информации с сайта, тест информационной системы, которая анализирует финансовый контекст и новости) она давала вполне приличные ответы. С другой стороны, выяснилось, что данные, на которых была обучена модель GigaChat-Max-2 от Cloud.ru, это октябрь 2023 года со всеми вытекающими последствиями, например, нет знаний об актуальных технологиях за последние два года. Два года отставания это достаточно серьезно.
На пару с редактором Cursor я сделал универсальный проект для доступа к основному API GigaChat, в составе которого есть веб-чат и телеграм чат, работающие на полноценных токенах от GigaChat API. Система может переключаться на более простые модели, если исчерпан лимит на старшие модели. Все кому интересно, могут с ним ознакомиться и использовать для работы, хотя высокие цены на API могут уменьшить количество желающих.
Кроме того, пообщался и с онлайн версиями GigaChat как в режиме чата, так и в режиме исследования некоторых вопросов. Также выяснилось, что при сравнении с другими облачными API есть отставание в актуальности выдаваемой информации, и например, про некоторые технологии. Курьезом закончилось исследование по одному неоднозначному правовому вопросу. Система GigaChat сделала неплохую подборку по моему вопросу, ответила, что вопрос до конца не урегулирован, но общие правовые основания есть. Я сохранил ее подробный ответ. Потом ее ответ я попытался использовать как контекст для составления письма, на что система ответила, что в представленном материале нет правовых оснований для выполнения поставленной задачи. Мне даже пришлось спорить с системой, в итоге что-то она написала на основании своего же исследования.
Были случаи, когда онлайн чат GigaChat не понимал контекста из предыдущего вопроса к ней же. Это было удивительно, но, скорее всего, просто недоработка онлайн чата, чем дефект модели.
Если резюмировать, то, с одной стороны, хочется поблагодарить Сбер за поддержку открытых проектов, с другой стороны, хочется видеть более активное развитие отечественных облачных моделей и видеть более доступные цены на их использование.
Буду ли я дальше работать с облачным API GigaChat? Наверное, пока нет, слишком дорого и не так качественно, как хотелось бы. Если ли облачные альтернативы? Видимо, есть, те же YandexGPT, DeepSeek, Qwen, ну и с особыми ухищрениями, ChatGPT, Claude, Grok. Хочется верить, что высокие цены на GigaChat API со временем либо снизятся, либо качество моделей повысится на порядок или два, чтобы оправдать такие высокие цены.
P.S. Эту статью отказались публиковать на habr.com со ДАЖЕ В ПЕСОЧНИЦЕ, со ссылкой что это "частный опыт, который не привносит пользы или ценности для аудитории, в статье как будто нет главной мысли, идеи".
Если еще не понятно, то главная мысль такая "GigaChat использовать можно, но с учетом старых данных (конец 2023 года) и чрезмерно завышенных цен, особенно, если нет возможности использовать LLM более доступные по цене и более актуальные по информации". По-моему, вполне ясная мысль.
0 ......
0
Комментарии пользователей
Еще нет комментариев.
