ai.
AI Code Completion: как мы добавили умный фильтр и перестали показывать лишнее
Всем привет! На связи Александр и Артем — ML-инженеры из Т-Банка. Мы делаем copilot-инструмент для разработчиков.
30 паттернов инженерии ИИ-систем
В Островке мы используем ИИ в разных задачах — от автоматизации внутренних процессов до продуктовых сценариев — и периодически рассказываем об этом на Хабре. Например, как строим вспомогательные системы на ��азе LLM и RAG или
Год назад Claude Code не умел составить план. Сейчас у него миллион токенов и 9 субагентов
Я тут полез в свою историю промптов за март 2025. Знаете, что нашёл? Промпт на 40 строк, в котором я вручную описывал Claude структуру проекта. Какие файлы где лежат, какие зависимости, где конфиг. Потому что он не мог посмотреть сам.Год назад. Март 2025. Claude Code - бета, версия 0.2.что-то-там. Ни plan mode, ни субагентов, ни CLAUDE.md, ни skills. Контекст - 200 тысяч токенов, и это считалось нормальным. Codex CLI не существовал. Gemini CLI не существовал. Copilot умел автокомплит и чат в сайдбаре.
Маленький LLM-чат на Python с Ollama и LiteLLM. Часть 1: ставим окружение и пишем первый запрос
Во многих туториалах по LLM всё начинается с API-ключей, платных токенов и облачных сервисов. Это рабочий путь, но для первого знакомства он не самый удобный: нужно регистрироваться, разбираться с биллингом и постоянно помнить, что каждый эксперимент что-то стоит.Здесь пойдём проще. В этой серии мы соберём маленький LLM-чат на Python, который сначала будет работать локально: модель запускается через Ollama, а Python-код общается с ней через LiteLLM.Это хороший стартовый маршрут по трём причинам:не нужны API-ключи;не нужен интернет для каждого запроса;

