ICLR отклонил 497 статей за AI в рецензиях. Почти любой из этих авторов мог бы пройти детектор за 30 секунд
В конце марта новостные ленты разошлись: ICLR 2026 — одна из самых уважаемых AI-конференций — отклонила 497 статей. Это около 2% от всех сабмитов. Причина не в качестве науки. Причина в том, что авторы пользовались LLM при написании рецензий на чужие работы. Поймали автоматическим детектором ИИ. Точность анонсировали «выше 95%».Я почитал сначала пресс-релиз, потом обсуждение на OpenReview, потом полез в свежие исследования по AI-детекторам. И вот тут начало становиться неловко.Потому что в апреле 2026 у нас нет ни одного детектора, который бы реально работал, как обещает.
Посчитал, сколько токенов Claude тратит на «Конечно!» и «Отлично!». 11% счёта
Открыл вчера дашборд по потреблению токенов — и завис.Смотрю на график и понимаю — что-то не сходится. Задач у ассистента за месяц было плюс-минус столько же, что и в прошлом. А токенов на выходе — больше процентов на десять. Я было решил, что это очередной клиент раскочегарился, полез в разбивку по проектам — нет, у всех понемногу.Ну.Полез читать сами ответы модели. И первое, что бросилось в глаза — почти каждый начинается с «Конечно!», «Отличный вопрос!», «С радостью помогу!». А дальше идёт ещё полтора-два предложения про то, как модель собирается ответить. И только потом — собственно ответ.
Как мы собрали русскоязычный датасет олимпиадной математики (и зачем это нужно AI)
Математические исследования всё чаще используют методы ИИ для анализа сложных задач, генерации решений и предоставления персонализированного обучения. Однако эффективность таких моделей напрямую зависит от качества и структуры данных, на которых они обучаются. Несмотря на обилие математических текстов в интернете, существует заметный дефицит крупных, размеченных и многоязычных датасетов, специально ориентированных на олимпиадную математику. В частности, для русскоязычных моделей остро не хватает материалов, сочетающих в себе авторитетность источника, сложность содержания и лингвистическое разнообразие.
Инвариантное проектирование: как балансировать между гибкостью и ограничениями ИИ-агентов
При создании ИИ-агентов разработчики часто сталкиваются с проблемой контроля. Если дать языковой модели полную свободу действий, система становится непредсказуемой и склонной к ошибкам. Если же ограничить её слишком жестко, агент теряет свои преимущества и превращается в обычный скрипт.
Локальный запуск GLM-5.1
Перевод подготовил автор канала Друг Опенсурса, приятного прочтения, заранее благодарю за подписку GLM-5.1 — это новая открытая модель от Z.ai. Она имеет 744 млрд параметров (40 млрд активных) и контекстное окно 200K. По сравнению с GLM-5 в ней улучшены написание кода, работа с инструментами и логические задачи.
Just AI открыла публичный доступ к Agent Platform Cloud
Just AI Agent Platform Cloud — облачная платформа для создания AI-агентов и мультиагентных систем. Теперь любая компания может автоматизировать бизнес-процессы без долгой разработки, необходимости строить собственную инфраструктуру и найма целой команды.Рассказываем, что внутри и для кого это полезно.Как работает платформа
Agent Harness: одна LLM, разные результаты — в чем секрет?
Использование кодовых агентов (Codex, Cursor, Claude Code) стало обыденностью. Внутри разных AI-агентов могут использоваться одни и те же модели, но результаты будут сильно отличаться. Например, есть мнение, что Cursor лучше и быстрее справится с написанием качественного UI, Claude Code покажет себя лучше в проектировании архитектуры приложения, а WindSurf лучше остальных создаст прототип системы. Почему одна и та же модель в разных агентах дает разный результат? Давайте разбираться.
Мультиагентная система без LangChain: почему абстракции ломаются и как строить production на чистом Python
ВведениеLangChain обещает красивую жизнь: переключите модель одной строкой, подключите RAG за две, дайте агенту инструменты за три. На лендинге всё выглядит как конструктор LEGO — берёшь кубики, соединяешь, работает. На хакатоне это действительно так. В production — не совсем.Тезис «LangChain — overhead для production» не нов. Его обсуждают в каждом втором треде на Reddit и в комментариях на Хабре. Компания Octomind
Функция создания плейлистов на основе промтов для ИИ в Spotify теперь будет работать и для подкастов
Платформа Spotify доработала
Почему никто не ожидал, что механизм «предсказать следующее слово» не должен был оказаться так успешен (но оказался)
Большие языковые модели по-прежнему просто предсказывают следующее слово.

