ИИ.
Laravel Copilot Workspace: как я собрал полный цикл разработки вокруг Copilot-агентов
Недавно в Visual Studio Code появился важный апдейт: редактор научился нормально работать с кастомными Copilot-агентами, описанными прямо в репозитории — в файлах .github/agents/*.agent.md. То есть теперь мы можем описать «агента» обычным текстовым файлом — и он появится в Copilot Chat как отдельный помощник со своей ролью.Я довольно давно делаю инструменты для разработчиков, которые помогают нормально использовать ИИ в реальных проектах: ассистентов, утилиты, внутренние «методички». И когда GitHub Copilot получил поддержку custom agents, стало понятно, что можно собрать вокруг этого не просто набор промптов, а
Вирусную песню, удалённую с площадок за использование Suno, переиздали с человеческим вокалом
Музыкальные стриминговые сервисы удалили
Искусственный интеллект против DDoS-атак и бот-активностей
В мире цифровых технологий даже самая незначительная деталь может стать определяющей для успеха или неудачи бизнеса. Безупречная и отказоустойчивая работа ИТ-систем — это не только демонстрация стабильности компании, но и условие выживания на рынке.В этой статье мы расскажем, как разрабатывать и развертывать системы защиты от DDoS-атак и бот-активностей с применением ИИ-инструментов.Что такое DDoS атаки и бот-активности
Итоги хакатона AI Challenge Banking МАИ и ПСБ
В Московском авиационном институте завершился хакатон AI Challenge Banking. Мероприятие этого года было посвящено решению практических задач, предоставленных партнёром — ПСБ.Студенты ТОП-ИТ программ МАИ приняли активное участие в хакатоне, представив прототипы систем, созданные за 45 часов работы.Поставленные задачи для разработки прикладных систем:Платформа для анализа пользовательского опыта.ИИ-ассистент для генерации деловой переписки.Рекомендательная система банковских продуктов.
ИИ, помогай: как я сделал настолку для бизнес-игры с помощью LLM-ки (внутри подробные промпты)
Любите настолки? И я люблю. Не только играть в них, но и разрабатывать. Правда, процесс это настолько длительный и непростой, что в основном мои амбициозные идеи умирали на бумаге. Пока на помощь не пришел генеративный ИИ.
Российские LLM в 2025: обзор GigaChat и Alice AI, их место на мировой арене
В 2025 году рынок нейросетевых моделей продолжает стремительно развиваться. Достаточно вспомнить недавний выход новой модели от Microsoft или обновление Nano Banana. Российские разработки также не стоят на месте.В сегодняшней статье мы поговорим о GigaChat и Alice AI, разберем их место на мировом рынке и, конечно, сравним в нескольких тестах. Устраивайтесь поудобнее, я начинаю.
Считаем денежки в ИИ, ML и LLM-проектах до копеечки
Утром деньги, вечером ИИ-проекты. Пока бедолаги из отчета NANDA жалуются, что 95% их ИИ-проектов не оправдывают дорогостоящих ожиданий, мы, как взрослые люди, считаем финансовый эффект от ИИ, ML и LLM в банке без магии — с калькулятором.Меня зовут Михаил Войтко, я работаю в Альфа Банке руководителем по внедрению решений продвинутой аналитики в Дирекции ботов и виртуальных ассистентов. Я не люблю, когда на вопрос «Ну как там с деньгами в вашем ИИ-проекте?» отвечают: «Мы улучшим пользовательский опыт, а там как пойдёт».Не-не-не. Утром деньги, а вечером проекты.
Cчитаем финансовый эффект от ИИ, ML и LLM в банке без магии — с калькулятором
Утром деньги, вечером ИИ-проекты. Пока бедолаги из отчета NANDA жалуются, что 95% их ИИ-проектов не оправдывают дорогостоящих ожиданий, мы, как взрослые люди, считаем финансовый эффект от ИИ, ML и LLM в банке без магии — с калькулятором.Меня зовут Михаил Войтко, я работаю в Альфа Банке руководителем по внедрению решений продвинутой аналитики в Дирекции ботов и виртуальных ассистентов. Я не люблю, когда на вопрос «Ну как там с деньгами в вашем ИИ-проекте?» отвечают: «Мы улучшим пользовательский опыт, а там как пойдёт».Не-не-не. Утром деньги, а вечером проекты.
Как я внедрил агента в бекенд-прод для решения рутинных задач
TL;DRМы собрали рабочего ИИ-агента-разработчика, который сам анализирует задачи в Jira, уточняет детали, пишет код, запускает сборку, фиксит ошибки, создаёт MR в GitLab и отправляет его человеку на ревью. Он работает параллельно на нескольких задачах, благодаря чему суммарное время выполнения пачки задач падает почти втрое. Команда избавилась от рутины, а скорость разработки выросла без расширения штата.Использовали: Ollama + Qwen3 Coder, PostgreSQL, Docker, GitLab/Jira API, систему строгих JSON-действий.Столкнулись с контекстом, "галлюцинациями", GPU и самовольными правками кода - всё решаемо архитектурой.

