Программирование. - страница 10

Собираем AI-агента нового поколения: Python, RAG и внешние инструменты через MCP (Model Context Protocol)

Введение: от простых цепочек к агентам, которые действуютЕщё пару лет назад типичное LLM-приложение выглядело как последовательная цепочка вызовов: взяли промпт, добавили контекст из векторной базы, отправили в модель, получили ответ. LangChain популяризировал эту парадигму — chains, retrievers, memory — и это работало для простых сценариев вроде «ответь на вопрос по документации».Но бизнес-задачи редко укладываются в линейный пайплайн. Пользователь хочет не просто получить ответ, а чтобы система совершила действие

продолжить чтение

Феномен OpenClaw: почему инженерная обвязка стала важнее нейросети

Мы долго ждали идеальный искусственный интеллект, который сам разберет почту, закроет тикеты и заменит половину отдела. Но реальность оказалась суровее: модели по-прежнему галлюцинируют, автономные агенты при любой возможности норовят выполнить команду на удаление системы, а на смену восторгам от параметров огромных LLM пришла жесткая инженерная дисциплина. Встречайте эпоху stateful-агентов и инфраструктурных костылей. В этом интервью мы поговорили с Chief AI Architect Андреем Носовым

продолжить чтение

Нейропластичность для разработчика — как учиться эффективнее

Программирование — это не просто перевод бизнес-требований (или ваших личных хотелок) в код. Это когнитивная нагрузка, которая на самом деле меняет режим работы мозга. Когда разработчик осваивает новый язык или фреймворк, его внутренняя «нейронная сеть» не просто запоминает новые правила игры, а перестраивается, адаптируется под обработку новых абстракций и логических цепочек. Зачем мы вообще решили вам это рассказать? Понимание механизмов работы мозга помогает:оптимизировать процесс обучения под реальные человеческие лимиты, а не до отсечки в черепной коробке;

продолжить чтение

Интеграция Google Gemini API в асинхронный Telegram-бот на aiogram 3.x и Python

В прошлую пятницу, ровно в 18:47, когда я уже мысленно открывал великолепный, наполненный витаминами, напиток, мне прилетело сообщение от тимлида: «Бот лежит, пользователи жалуются, Gemini API возвращает 429». Наш корпоративный Telegram-бот, который должен был помогать саппорту отвечать на тикеты, просто встал колом. Причина оказалась до банальности простой: мы не учли rate limiting и думали, что 50 RPM (запросов в минуту) на бесплатном тарифе — это «бесконечно много». С тех пор мы переписали архитектуру, добавили очереди, кэширование и middleware для retry. В этой статье разберу, как с нуля подружить Gemini API с Telegram-ботом на aiogram 3.x, не наступая на те же грабли.

продолжить чтение

Как я стал вайбкодером (а казался, наверное, приличным человеком)

Почему вы видите этот скрин? — читайте дальше, объяснение будет. В целом это не про игры.

продолжить чтение

Почему ваш LLM-сервис ведёт себя как хочет, а не как вы просите

Вы пишете промпт. Подробно, вдумчиво, с примерами. Деплоите в сервис. Запускаете — и получаете markdown-обёртку вокруг JSON, который вы просили.

продолжить чтение

Почему ИИ-код создаёт больше проблем, чем решает

Многие команды сейчас экспериментируют с ИИ. Ставят ИИ-инструменты и удивляются как резво растёт кодовая база. Но счастье длится недолго. Очень быстро выясняется что количество багов растёт с той же, а порой и опережающей скоростью. А аудиты, хоть ИИ и сделал их доступнее, раздувают бэклог на недели вперёд.Типичная история 2026 года. ИИ-революция случилась быстрее, чем мы осознали что произошло и что с этим делать. А главное, как выстраивать процессы разработки по-новому, чтобы удержать этот код от взрыва в продакшене.Цифры которые не сходятся

продолжить чтение

Автоматизация физических задач и формул, а так же расчет продуктивности мозга написанная на Python

продолжить чтение

Немного про AI для догоняющих

Не тот мудр, кто знает всё, а тот, кто знает, кого спросить.Немного введенияВ настоящее время тема искусственного интеллекта (AI) перестала быть уделом исследователей и энтузиастов — она ворвалась в повседневную работу инженеров, аналитиков, менеджеров и, по сути, всех, кто хоть как‑то взаимодействует с текстом, кодом или данными.

продолжить чтение

Пробуем использовать локальные LLM для написания кода

ИнтроКогда возникают мысли про бесплатное использование агентов для написания кода, появляются два варианта: поискать бесплатные сервисы и использовать локальные модели. В прошлой статье мы рассмотрели возможности бесплатного использования облачных моделей. В этой же статье мы посмотрим, можно ли использовать локальные модели для написания кода с помощью тех же агентов.

продолжить чтение