llm.
Интеграция Google Gemini API в асинхронный Telegram-бот на aiogram 3.x и Python
В прошлую пятницу, ровно в 18:47, когда я уже мысленно открывал великолепный, наполненный витаминами, напиток, мне прилетело сообщение от тимлида: «Бот лежит, пользователи жалуются, Gemini API возвращает 429». Наш корпоративный Telegram-бот, который должен был помогать саппорту отвечать на тикеты, просто встал колом. Причина оказалась до банальности простой: мы не учли rate limiting и думали, что 50 RPM (запросов в минуту) на бесплатном тарифе — это «бесконечно много». С тех пор мы переписали архитектуру, добавили очереди, кэширование и middleware для retry. В этой статье разберу, как с нуля подружить Gemini API с Telegram-ботом на aiogram 3.x, не наступая на те же грабли.
ИИ Анализ новостного сентимента как торговый сигнал
Исходный код торговой стратегии опубликован по ссылкепо
Почему ваш LLM-сервис ведёт себя как хочет, а не как вы просите
Вы пишете промпт. Подробно, вдумчиво, с примерами. Деплоите в сервис. Запускаете — и получаете markdown-обёртку вокруг JSON, который вы просили.
Is a new wave of process excellence coming?
TL;DR Companies are rolling out AI by trying agents on whatever comes to mind, without the process mapping discipline that used to precede any serious automation. It's worth asking whether that discipline is about to matter again, as agent architecture, token economics, and regulation start catching up with the experimentation.It's a strange question to ask in 2026, when agents are at the top of most companies' agendas and calling yourself "AI-native" has become almost mandatory. Against that backdrop,
Бесплатная Stealth-модель оказалась в топе OpenRouter за 72 часа
13 апреля на OpenRouter появилась Elephant Alpha — 100-миллиардная языковая модель без имени автора, пресс-релиза и маркетинга. Через несколько дней она заняла первое место в Trending-ранкинге платформы, обойдя платные модели по реальному потреблению токенов.
Немного про AI для догоняющих
Не тот мудр, кто знает всё, а тот, кто знает, кого спросить.Немного введенияВ настоящее время тема искусственного интеллекта (AI) перестала быть уделом исследователей и энтузиастов — она ворвалась в повседневную работу инженеров, аналитиков, менеджеров и, по сути, всех, кто хоть как‑то взаимодействует с текстом, кодом или данными.
Как я запускал Qwen 3.5 на Mac: бенчмарк 8 локальных LLM-серверов. Кто быстрее?
Дано: MacBook Pro 16" M2 Max, 64GB unified memory, задача - гонять Qwen 3.5 35B moe локально как inference-сервер. Серверов для MLX - штук восемь, и каждый в README обещает «blazing fast». Я взял все, написал автоматический бенчмарк на восьми реальных задачах, прогнал пять итераций - и получил результаты, которые меня удивили.гит моего бенча: https://github.com/yaruslove/qwen3.5-bench-8-mlx-server-mac
Compute crunch пришёл: как считать экономику LLM в 2026
Build, Buy или Hybrid - рассуждаем о подходах к TCO. Статья - приглашение к диалогу и обсуждению, не экспертный нарратив."Я говорил" или что случилось с тарифами на LLM APIДва крупнейших API-провайдера одновременно сменили риторику. Anthropic ввёл usage-based billing для агентных фреймворков — плата за токены вместо фиксированных подписок. Часть сторонних обёрток потеряла возможность работать через flat-rate тарифы. OpenAI параллельно ввёл гибкое корпоративное ценообразование для Enterprise, Business и EDU-планов

