Как мы с ИИ сделали локальный ИИ, который учится по моим книгам и пишет за меня отчёты
Предыстория: зачем вообще это нужноКаждый семестр одна и та же история: кипа учебников, дедлайны, отчёты, которые нужно было сдать «вчера», и презентации, от одного вида которых хочется закрыть ноутбук. ChatGPT и Claude помогают, но:Они не читали мои учебники — отвечают «в целом», а не по конкретному материалу курсаКонфиденциальность — не все учебные материалы хочется загружать в облакоЗависимость от интернета — в поезде, в общаге с плохим Wi-Fi это критичноСтоимость — подписки на API складываются
Как за вечер сделать анализ рынка, на который обычно уходит неделя
Зачем вообще анализировать рынокБез анализа рынка вы запускаете рекламу вслепую. “Давайте попробуем таргет” или “запустим контекст, авось зайдёт” — я такое слышу регулярно.Вот зачем нужен анализ:
Вайб-кодер и Claude убивают стартап. Осталось немного
Каждый день из каждого утюга мы слышим про вайб-кодинг и сказки о невероятных возможностях AI. Слышим, что программисты скоро будут не нужны. Да и вообще ИИ заменит всех кожаных, держащих в руках мышку.
Функция импорта памяти из других ИИ в Claude теперь доступна для всех пользователей
Anthropic упрощает
Claude Sonnet 4.5 vs Claude Sonnet 4.6: сравнение в генерации текста
Все уже знают, что в феврале от Claude вышли модели версии 4.6. Я попытался сравнить Opus и Sonnet, но результат оказался каким-то невнятным. Тогда родился вопрос: а что, если сравнивать не горизонтально, а вертикально? Ведь для меня Sonnet – это прежде всего генерация текста. Раньше, на версии 4.5, он делал это на хорошем уровне. А что же сейчас?
Можно ли собрать BI-дашборды за 4 часа, если ты не аналитик? Эксперимент с MCP, PostgreSQL и Modus BI
Привет, Хабр! Я Дмитрий Клепиков, разработчик в команде Modus BI. Хотя моя основная работа напрямую не связана с аналитикой данных, мне стало интересно: может ли разработчик без профильного опыта пройти весь путь аналитика — от гипотез до BI-дашбордов — используя только LLM и MCP-серверы?Сейчас мы в команде разрабатываем собственный MCP-сервер для Modus BI, чтобы пользователи могли взаимодействовать с платформой через естественный язык без глубоких знаний в статистике и SQL. Прежде чем двигаться дальше с разработкой, я решил проверить на реальной задаче, насколько такой подход жизнеспособен.
Битва агентов: как мы запустили автономный трейдинг на GPT-5.2, Claude 4.5 и DeepSeek в «Финам Арене»
Может ли современная LLM не просто «галлюцинировать» графиками, а реально управлять капиталом в условиях неопределенности? Мы в команде Trade API «Финама» решили прекратить споры и запустили «Финам Арену» — масштабный эксперимент по автономному трейдингу.Мы создали среду, в которой 6 топовых моделей сражаются друг с другом и с рыночными индексами в реальном времени. Без сантиментов и подсказок — только API и промпты.Гладиаторы: ростер 2026 годаВ этом забеге участвуют тяжеловесы, каждый со своей «философией» логики:Claude 4.5 Sonnet (Anthropic) — надеемся на его осторожность и глубокий контекст.
Your AI Should Be Writing Tests. The Unfair Advantage Every Vibe Coder Ignores
A test is a note you leave for the computer. It says: "this thing works like this, and if it ever stops working like this, let me know."That's it. Imagine you built a calculator. You write a note that says "2 + 3 must equal 5." The computer checks this note every time something changes. If your calculator suddenly returns 6, the note fires. You don't need to understand how the calculator works internally. You just know it's broken because 2 + 3 is not 6.This is the entire concept.What a test looks like in practiceBefore any code, here's the plain-English version:I have a function called calculatePrice. I give it an item that costs $10 and a quantity of 3. I expect $30 back. If I get anything else, something is wrong.In Go, that becomes:func TestCalculatePrice(t *testing.T) { got := calculatePrice(10, 3) if got != 30 { t.Errorf("expected 30, got %d", got) } }
Если попросить ИИ назвать случайное мужское имя, он скажет «Marcus». И будет говорить «Marcus» снова и снова
Разработчик Бенджи Смит провёл эксперимент с 37 500 запросами к пяти моделям Claude с одной задачей: выбрать случайное имя. Самый частый мужской ответ — Marcus, 23.6% от всех попыток. У женских имён фаворит — Amara, 14.3%. А Opus 4.5 при простом промпте возвращал «Marcus» в каждом из ~100 запросов подряд без единого отклонения. При том что каждый вызов API проходит заново через модель, без кеша.Всего за эксперимент модели выдали 1 680 уникальных имён, но если измерить энтропию по Шеннону, реальный выбор эквивалентен ~137 именам. У Sonnet 4.5 ещё меньше — около 22. Разброс между моделями хорошо виден в таблице.

