Когда лопнет пузырь AI?
«Когда OpenAI обанкротятся, на Сен-Бартелеми будут пить меньше шампанского. Ну а мы — мы хорошо заработаем» © Есть характерный момент в каждом технологическом пузыре.
«Героиня прикована к полу, но спускается по лестнице»: разбираем логику ИИ-писателей
Леч Мазур добавил три модели в свой бенчмарк по оценке навыков написания коротких рассказов. Kimi K2.5 — 8,07 балла, Qwen3 Max — 7,84, MiniMax-M2.1 — 7,78. Результаты неплохие, но самое ценное в этом бенчмарке — не цифры, а разбор конкретных ошибок.Если вы используете ИИ для текстов, вот на что стоит обращать внимание при проверке.Физическая непрерывность. Героиня «прикована к полу кандалами», через абзац спускается по лестнице, а цепь «остаётся наверху». Модели хорошо держат локальный контекст, но теряют детали на длинной дистанции.
Разработчик за месяц надиктовал почти 250 тысяч слов для преобразования речи в текст
Автор блога Modulovalue Модестас Валаускас рассказал, что за последние 39 дней он надиктовал 243 554 слова, что примерно равно объёму двух книг. Он использовал тестовое приложение для диктовки Wispr Flow.
Strava удалила 2,3 млн поездок пользователей-мошенников
Приложение для обмена данными о тренировках Strava удалило из своих таблиц лидеров более 2 млн поездок. Предположительно, их совершили на электровелосипедах, хотя пользователи заявляли об использовании обычного транспорта.
Я не верил в хайп вокруг ИИ — но то, что случилось в Давосе, меня напугало
Когда Anthropic, Google DeepMind и OpenAI одновременно называют одни и те же сроки - пора насторожиться.Три недели назад Илон Маск опубликовал два сообщения в X, которые взорвали интернет.Первое:
Как мы пытались научить ML считать трудоёмкость в промышленности — и что из этого вышло
Современное машиностроительное производство требует высокой точности планирования технологических процессов и оценки трудоёмкости операций. Эти оценки напрямую влияют на формирование себестоимости, планирование загрузки оборудования и назначение цен на продукцию и услуги.
ИИ научили писать исследования длиннее его памяти
Главная проблема современных ИИ-агентов для исследований — контекстное окно. Модель может переварить условные 200К токенов, а серьёзное исследование требует прошерстить сотни страниц и написать отчёт на 10К+ слов. В какой-то момент агент просто упирается в потолок и начинает терять информацию.Исследователи из Китая предложили решение, которое кажется очевидным постфактум: а давайте дадим ИИ файловую систему как внешнюю память.Как это работает

