Как запихнуть килограмм LLM в телеграм-бота и не сойти с ума. API.. API. Claude.. API. Claude. gemini.. API. Claude. gemini. gpt-4o.. API. Claude. gemini. gpt-4o. llm.. API. Claude. gemini. gpt-4o. llm. python.. API. Claude. gemini. gpt-4o. llm. python. telegram bot.. API. Claude. gemini. gpt-4o. llm. python. telegram bot. Telegram Mini Apps.. API. Claude. gemini. gpt-4o. llm. python. telegram bot. Telegram Mini Apps. архитектура.. API. Claude. gemini. gpt-4o. llm. python. telegram bot. Telegram Mini Apps. архитектура. асинхронность.. API. Claude. gemini. gpt-4o. llm. python. telegram bot. Telegram Mini Apps. архитектура. асинхронность. Веб-разработка.. API. Claude. gemini. gpt-4o. llm. python. telegram bot. Telegram Mini Apps. архитектура. асинхронность. Веб-разработка. искусственный интеллект.. API. Claude. gemini. gpt-4o. llm. python. telegram bot. Telegram Mini Apps. архитектура. асинхронность. Веб-разработка. искусственный интеллект. Машинное обучение.. API. Claude. gemini. gpt-4o. llm. python. telegram bot. Telegram Mini Apps. архитектура. асинхронность. Веб-разработка. искусственный интеллект. Машинное обучение. Программирование.

Введение. Role-Play LLM бот

Все началось как шутка. Я сидел с друзьями и подумал: а вот было бы прикольно внедрить разные модели нейросетей в один чат и заставить их думать, что они реальные люди и работают в корпорации.

Весь смысл был в том, чтобы это были действительно разные модели и пользователь мог просто между ними переключаться по запросу. Для начала мне нужно было найти зоопарк апи ключей с бесплатными лимитами. Я прошерстил весь интернет и в итоге нашел относительно нормальные варианты: Groq для LLama, Google AI Studio для Gemma и Gemini.

В целом в это время код был простой, правда все время происходил забавный баг. Когда пользователь переключался между моделями, одна модель не хотела отдавать очередь другой и просто притворялась ею, но я в целом без трудностей поправил это через системный промт. Однако до конца у меня исправить это так и не получилось — видимо, мои модели слишком глупые.

Умный помощничек

Буквально в это же время я заметил, как Google урезали Gemini в браузере. Мне захотелось вернуть тот опыт умного ассистента, поэтому я решил добавить в бота серьезный режим. Изначально я хотел ограничиться простыми моделями, но с системой проверки. Первым делом я добавил GPT 4o по API ключу за копейки, но не чтобы с ним беседовать, а чтобы он проверял ответы других моделей. Логика такая: модель возвращает ответ вместе с параметром confidence (уверенность). Если он чуть-чуть не дотягивает до эталона, модель проверяет себя сама, а если модель слишком глупая, чтобы ответить на сложный вопрос, она зовет умного Gemini или GPT 4o.

Fallback архитектура

Первое время все работало отлично, пока я не понял, что Google душат нас лимитами и здесь. Гемини отвечал примерно в 50% случаев, поэтому я добавил Fallback архитектуру: если не может он, пусть отвечают другие.

Fallback если модель упала

Fallback если модель упала

Я совместил этот подход с проверкой качества: я сделал, чтобы модели, которые даже с проверкой от умного друга не могут ответить нормально на сложный вопрос, вообще на него не отвечали, а вместо них отвечала другая модель. Главный бенчмарк, который я придумал в тот момент, — смешная загадка про автомойку.

Как запихнуть килограмм LLM в телеграм-бота и не сойти с ума - 2

Этот вопрос оказался для моих моделей настолько сложным, что мне пришлось подключить Kimi k2.6, и теперь уже она проверяла ответы младших моделей. Это породило такой завоз, который я представить себе не мог. Изначально я задал этот вопрос llama 80b. Она сказала, что не уверена в ответе, и позвала Gemini на проверку. Gemini сказал: «Токенов нет», после чего сработал фоллбек проверяющего на Kimi. Kimi сказала ламе: «Неправильно, переделывай». LLama переделала, Kimi снова проверила ответ, и он все еще был неверным. После этого переключилось на модель GPT 4o. Он тоже был не уверен и позвал Kimi проверять. Только после этого вопрос с автомойкой был закрыт. Теперь вы понимаете, почему я назвал это «зоопарк нейросетей»?

Действительно умный LLM присоединился к глупышам.

Я оценил ситуацию и понял, что так дело не пойдет. Нужно добавлять более умные модели. И тут я натыкаюсь на прокси-сервис, который дает доступ к апи от антропик. Я оплатил апишку и начал тестировать модели на оригинальность. В целом я убедился, что это действительно модели от Anthropic с помощью базового prompt injection, но не билось одно — knowledge cutoff. Когда я спрашивал у модели Claude Sonnet 4.6, за какой год и месяц последнюю информацию она помнит, она отвечала мне: начало 2025 года. Я спросил у Gemini 3.1 pro и у Perplexity, и они упорно утверждали, что так быть не должно. После нескольких дней промт инжекшна я сдался: я не смог вычислить подделку. Но вдруг я вспомнил, что у Claude Sonnet 4.6 есть у других проверенных агрегаторов и в Google Antigravity (IDE от Google, где можно пощупать модели Claude), и решил спросить там. Ответ был всегда один — начало 2025 года. Из-за ложной уверенности Gemini и Perplexity я просто так потратил кучу токенов и пару дней в никуда. Оказалось, модель оригинальная.

После того как я добавил Claude в бота, веселье только началось. Я добавил 2 модели — Sonnet 4.6 и Opus 4.7. Модели поразили меня своим умом, особенно после урезанного gemini 3.1 pro из официального чата. Однако я заметил, что, когда я спрашиваю у них в боте сложный вопрос про код или физику, они сбрасывают ответ на другую модель. С этим я провозился пару дней. Оказалось, что из-за того, что я не добавил их в качестве проверяющих моделей, их проверял GPT 4o, и он отбраковывал ответы, которые, по его мнению, неверные. Ну как бы мы тут сравниваем GPT 4o и Opus 4.7, я думаю, понятно, у кого были ДЕЙСТВИТЕЛЬНО верные ответы. В итоге я пофиксил этот баг, но случилась другая беда: ответы обрезало в самый неподходящий момент. У меня стоял неплохой лимит по токенам на 1 запрос — 5000, но опусу было мало, и только когда я расширил ему лимит аж до 10000 токенов, он начал нормально отвечать. Уже тогда у меня начали закрадываться мысли об экономической выгоде моего бота.

Таблицы, форматирование кода и ФОРМУЛЫ

Еще с самого начала проекта я знал, что с формулами, таблицами и форматированием кода при split_message придется повозиться. Таблицы я победил кастомным обработчиком на питоне, а split_message вообще решался парой строк кода. НО ФОРМУЛЫ…

Простые-то понятно: конвертировал в юникод и поехали. Но я же хотел бота еще и для ФИЗИКИ. Сначала у меня была идея рендерить их как картинки, но это выбивало из контекста — читаемые формулы слались отдельным сообщением.

Кончилась эта эпопея тем, что я добавил в бота кнопку «Умный режим чтения». При нажатии на нее открывается Miniapp с текущим ответом бота, где и таблицы, и формулы, и код выглядят нормально.

Как выглядит

Как выглядит
Как отображается
Как отображается

Внутрянка Миниаппа

Когда бот видит в ответе таблицу, LaTeX-формулу и код, он генерирует случайный токен. Далее он формирует ссылку с этим токеном и прикрепляет его к кнопке умного режима. При нажатии на эту кнопку веб-приложение берет токен и отправляет гет-запрос боту. Бот, в свою очередь, отдает JSON с текстом, а веб-приложение рендерит его с помощью marked.js и KaTeX.

  Код (упрощенно):

  Бот (Python):

   1 # 1. Сохраняем и создаем токен
   2 token = state.create_web_preview(full_answer_text)
   3
   4 # 2. Создаем кнопку для Mini App
   5 url = f"https://my-bot.com/?t={token}"
   6 btn = InlineKeyboardButton(text="📖 Умный режим чтения", web_app=WebAppInfo(url=url))

  Серверная часть (aiohttp):

   1 async def handle_api_preview(request):
   2     token = request.query.get("t")
   3     content = state.get_web_preview(token) # Берем из БД
   4     return web.json_response({"content": content})

  Веб-приложение (JS в index.html):

   1 const urlParams = new URLSearchParams(window.location.search);
   2 const token = urlParams.get('t');
   3
   4 // Запрашиваем контент у бота
   5 const response = await fetch(`/api/preview?t=${token}`);
   6 const data = await response.json();
   7
   8 // Рендерим Markdown
   9 document.getElementById('content').innerHTML = marked.parse(data.content);

Итоги

Я собрал и бота для завоза, и более умный аналог браузерного гемини с наворотами. Но какой ценой — и денежной, и временной… Если вам интересно, что получилось в итоге, то вот юз бота @gemini_not_smart_bot.

Автор: dashsk

Источник