Не убивайте интернет: почему нам нужен ИИ, но не так, как мы его используем
Сейчас много людей говорят о том, что пузырь нейросетей вот-вот лопнет, что это чуть ли не самое бесполезное изобретение человечества, которое ни на что не способно.Я считаю иначе. Все эти заявления разбиваются о простые рассуждения и примеры, которые почему-то часто игнорируют. Я даже не боюсь тотальной замены людей нейросетями: настолько сильный рост экономической эффективности может подарить нам колоссальное количество свободного времени и новых возможностей.(Статья написана мной и была орфографически проверена, стилизована, с добавлением источников через DeepSeek, если потребуется изначальный текст - скину)
LLM вместо «прочитаем потом»: анализ постмортемов и паттерны инцидентов
Ваши инциденты содержат основу для самых стратегических улучшений инфраструктуры — если вы умеете правильно их «слушать».TL;DR: Мы подключили LLM как ассистента для SRE и прогнали через него тысячи постмортемов, чтобы вытащить из архива повторяемые причины и сценарии отказов. Конвейер автоматически находит паттерны инцидентов — в нашем случае в основном вокруг хранилищ данных: Postgres, AWS DynamoDB, AWS ElastiCache, AWS S3 и Elasticsearch. Это заметно ускоряет разбор, подсвечивает скрытые точки напряжения и помогает формировать список приоритетных инвестиций в надёжность.
Проблемы людей и нейросетей
Эта статья написана без участия ИИ. Для простых смертных. Упрощена.Сейчас тренд на замену людей нейросетями, вайбкодинг, и другие вещи, которые завернуты в фантик «Беззаботного будущего», всё это мне напоминает предыдущий тренд, который был до появления ИИ — «Успешный успех». Нам продают не технологии, а чувства простоты, на которое люди каждый раз охотно ведутся.По ощущениям, это тот же барабан с цифрами 777, нам показывают пару удачных прокруток, «джекпоты», счастливые лица, а реальная статистика, цена попыток, и неизбежные промахи остаются за кадром.
«Героиня прикована к полу, но спускается по лестнице»: разбираем логику ИИ-писателей
Леч Мазур добавил три модели в свой бенчмарк по оценке навыков написания коротких рассказов. Kimi K2.5 — 8,07 балла, Qwen3 Max — 7,84, MiniMax-M2.1 — 7,78. Результаты неплохие, но самое ценное в этом бенчмарке — не цифры, а разбор конкретных ошибок.Если вы используете ИИ для текстов, вот на что стоит обращать внимание при проверке.Физическая непрерывность. Героиня «прикована к полу кандалами», через абзац спускается по лестнице, а цепь «остаётся наверху». Модели хорошо держат локальный контекст, но теряют детали на длинной дистанции.
Как я пытался сжимать смыслы вместо байтов
Два часа ночи. Я пытаюсь впихнуть документацию проекта в контекст Claude. 847 страниц. Где-то 1.2 миллиона токенов. Контекстное окно — 200 тысяч.Делаю то, что делают все: режу, суммаризирую, выбрасываю «неважное». Каждый раз теряю что-то критичное. Это уже третий час, кофе кончился, и в голову приходит идея, которая кажется гениальной.Спойлер: она такой не была.
Объяснение галлюцинаций LLM
Примечание: этот текст ориентирован на разработчиков, работающих с большими языковыми моделями, но его ценность для аналитиков заключается в том, что он предлагает конкретные методы для повышения точности и надежности данных, используемых в аналитике. Важно, что аналитику не нужно быть экспертом в разработке ИИ, чтобы воспользоваться этими подходами. Внедрив эти подходы, аналитики могут минимизировать риски ошибок и сделать свои отчеты и прогнозы более точными, основанными на надежных данных
Я заставил 14 нейросетей врать: Большой аудит галлюцинаций 2026
Или как я потратил неделю, чтобы доказать: ИИ сегодня — это красноречивые лжецы в костюмах экспертов.В конце 2025 года я устал читать маркетинг в стиле «наша модель умнее ChatGPT на 15%». Умнее по какому бенчмарку? MMLU? Это всё равно что мерить интеллект человека по результатам ЕГЭ.Я решил проверить одну простую вещь: способна ли нейросеть сказать «я не знаю»?Потому что в реальном мире — в медицине, праве, финансах — ответ «я не уверен» стоит дороже любой красивой, но выдуманной истории.Ниже — результаты слепого тестирования 14 топовых LLM (включая Claude 4.5, GPT-5.2, Gemini 3, Qwen, YandexGPT и

