productivity.

Второй мозг и LLM‑Wiki: Теория и практический гайд по созданию и поддержке личной базы знаний

В этой статье поговорим про концепцию «второго мозга»

продолжить чтение

«Большой скачок» в мире AI: история повторяется

В 1958 году Мао приказал каждой деревне в Китае выплавлять сталь. Крестьяне бросали кухонную утварь в самодельные домны и рапортовали о феноменальных показателях. Сталь оказалась непригодной. Урожай сгнил. Тридцать миллионов человек погибли от голода.В 2026 году каждая вторая компания проводит масштабную AI-трансформацию сверху вниз.Тот же вайб.

продолжить чтение

Как я перестал бояться Claude Code и научил его не ломать мои проекты

Знакомая ситуация: просишь Claude Code добавить авторизацию — он переписывает половину проекта. Просишь поправить одну функцию — получаешь удалённые тесты и новую зависимость, о которой не просил. За час строишь рабочий прототип, а потом три часа разгребаешь то, что Claude наворотил при «улучшении».Я бэкенд-разработчик на Python, работаю в основном один. У меня нет роскоши держать QA-инженера, который будет ловить регрессии после каждого промпта. Мне нужно, чтобы AI-агент помогал быстрее шипить, а не создавал новые проблемы.

продолжить чтение

Информационный шум в IT: как учиться, когда контента слишком много

Привет, Хабр! Меня зовут Настя, я работаю методологом в команде проекта Route 256

продолжить чтение

Артефактно-ориентированная разработка с AI-ассистентами: методология синхронизации контекста

ВведениеС появлением больших языковых моделей (LLM) парадигма разработки программного обеспечения претерпевает фундаментальные изменения. Однако в ходе практической работы я столкнулся с системным ограничением: существующие платформы AI-ассистентов накладывают жесткие лимиты на объем передаваемого контекста.Для проекта средней сложности (30–50 файлов, 10–50K строк кода) передача полного контекста за одну сессию часто невозможна без специальных методов компрессии. Ниже я представляю методологию, которую разработал для решения этой проблемы.🎯 Личный контекст: зачем мне это понадобилось

продолжить чтение

Введение в Yttri — Что это и почему это нужно?

"У нас слишком много инструментов, но слишком мало знаний."Этой публикацией мы открываем цикл статей, посвящённых разработке и философии Yttri.Введение: Хаос в управлении знаниями

продолжить чтение

Claude Code научился запоминать задачи — но нужна одна настройка

Персистентные Tasks, субагенты на общем списке, зависимости между задачами — разбираем обновление и подводные камниТа самая одна настройкаВот она:CLAUDE_CODE_TASK_LIST_ID=my-project claude Всё. Теперь задачи сохраняются между сессиями. Закрыл терминал, открыл снова с тем же ID — задачи на месте.Что ещё появилось в новых Tasks:Субагенты видят общий список: 5 воркеров на одном task listЗависимости: "Задача 3 ждёт задачу 2" — агент понимаетMulti-session: Два терминала работают с одним списком

продолжить чтение

Борьба с лавиной информации

ПРИЧИНА 

продолжить чтение

Всё-в-одном: Чек-лист по работе с ИИ и ChatGPT

Эта статья будет полезна продактам, маркетологам, разработчикам всем, кто ищет способ ускорить работу или облегчить её с помощью генеративного искусственного интеллекта.Введение

продолжить чтение

Обзор OpenAI Codex на практике

Всем привет! Меня зовут Александр, я COO в SaaS-платформе аналитики данных. Последний год активно изучаю внедрение AI-решений в кросс-функциональные процессы. Делюсь полезными материалами, которые считаю стоят внимания. В основном про AI, изменение процессов, тренды и продуктовое видение.У себя в телеграм-канале делюсь сжатыми и структурированными саммери статей.Сегодняшний перевод — OpenAI Codex Hands-on Review

продолжить чтение

12