Почему ИИ решает математические задачи, если не умеет думать
На утверждение, что большие языковые модели не мыслят, есть простой встречный вопрос : “Если это так, как ИИ выполняет арифметические операции?”
Массовая блокировка Claude. Как айтишникам и бизнесменам защитить себя от убытков в следующий раз
Несколько сотен российских пользователей потеряли аккаунты в Claude. Несмотря на VPN, люди лишились того, что строили месяцами. В лету канули ИИ-агенты, аналитические данные, автоматизации.
Проклятие Grok: ни один основатель не остался в проекте Илона Маска. Досье SpeShu.AI
Grok — нейросеть компании xAI, которую основал Илон Маск в марте 2023 года. Для разработки он собрал 11 исследователей — всех переманил из DeepMind, Google, OpenAI, Microsoft Research и Университета Торонто. К маю 2026 года абсолютно все 11 сооснователей покинули компанию.
Скрипач не нужен: Выживут ли музыканты в эпоху нейронок?
Нужен или не нужен?За пару минут GenAI может сгенерировать целую симфонию. Означает ли это что музыканты останутся не у дел и скрипач уже действительно не нужен? Разбираемся в вопросе.Пока, Морриконе
Opus 4.7 vs GPT-5 vs DeepSeek V4-Pro: три агента строят TSS-CLI на Rust
TL;DR24 апреля 2026 DeepSeek в режиме preview выкатил V4-Pro — MoE на 1.6T параметров (49B активных), 1M контекста. Появился повод посадить три флагманские модели за один и тот же не самый тривиальный таск и посмотреть, кто как справится. Задание общее, машина одна, час один, всё запускалось параллельно:МодельHarnessReasoning effortAnthropic Opus 4.7 (1M ctx)Claude Codex-highOpenAI GPT-5CodexhighDeepSeek V4-ProOpenCodehigh (max)
Save the date: 20 мая встретимся на Inside AI Meetup от Wildberries & Russ
Что происходит, когда AI выходит за пределы прототипа и попадает в прод? На митапе обсудим реальные кейсы: от высоконагруженной модерации с векторным поиском и AIOps-подходов к управлению ML-сервисами до практики построения RAG-систем, тонкостей реранкинга и реальных этапов запуска LLM-продуктов. Среди спикеров эксперты Wildberries & Russ, MWS, МФТИ, Avito, VK, M2, Сбера, Альфа-Банка, red_mad_robot.Когда: 20 мая, старт в 15:00Где: Москва + онлайн-трансляция Регистрация открыта —> здесьInside AI: Main Track. Доклады на 30 минут от Wildberries & Russ, MWS, МФТИ
Кириллица в LLM: почему русский язык в нейросетях стоит дороже и работает медленнее
Когда вы пишете запрос в ChatGPT или другую нейросеть, она не работает с буквами или словами — она режет ваш текст на маленькие кусочки. Эти кусочки называются токенами, и от того, как именно нейросеть режет текст, зависит цена ответа, скорость, и сколько информации в неё помещается за раз. С английским это работает хорошо: одно слово — обычно один‑два кусочка. С русским всё хуже: то же самое слово часто превращается в три‑четыре обрывка. Английское «contract» — один токен. Русское «разработка» — два‑три. «Программирование» — три‑четыре.
️ Zyphra выкатила ZAYA1-8B — маленькую MoE-модель, которая выглядит слишком бодро для своего размера
У модели меньше 1 млрд активных параметров, но Zyphra заявляет, что она конкурирует с куда более крупными open-weight и proprietary-моделями на математике, кодинге и reasoning-бенчмарках.ZAYA1-8B - это ставка на весь стек сразу:MoE-архитектура с Compressed Convolutional Attention;новый MLP-router для более стабильного выбора экспертов;learned residual scaling для контроля роста residual-норм;pretraining на AMD Instinct MI300x, без NVIDIA-стека;большой post-training pipeline с SFT, reasoning warmup, RLVE-Gym, math/code RL и RLHF/RLAIF;test-time compute метод Markovian RSA.
AI Overviews в поисковике Google теперь будет обращаться к Reddit за «советами экспертов»
Google объявила об обновлении AI Overviews (ИИ-обзоры) и режима ИИ в своей поисковой системе. Теперь эти инструменты будут обращаться за «советами экспертов» в Reddit и другие платформы.

