Жизнь сквозь призму LLM. Часть 1 — почему мы будем платить не за сервис, а за доступ к мышлению
Разговор про большие языковые модели до сих пор слишком часто ведётся по одной из двух схем. Либо восторг: «смотрите, нейросеть уже пишет код и тексты», либо скепсис: «она всё равно галлюцинирует». Ни то, ни другое уже не отражает масштаб происходящего.Всем привет! Меня зовут Дмитрий Фырнин, я управляющий партнёр и технический директор в SENSE, и собрал серию материалов-рассуждений о том, как LLM меняют нашу жизнь — а где-то уже изменили — на уровне среды, в которой мы работаем и принимаем решения.
Быстро, дешево, качественно. Теперь одновременно, но есть нюанс
Меня зовут Александр Сахаров, я директор по партнерствам в компании Диасофт. И тезис, с которого начну, довольно дерзкий: старый айтишный треугольник «быстро, дешево, качественно, выберите два» в 2026 году можно закрывать. Правда, с одним условием, о котором почему-то практически не говорят.На днях мы собрались с коллегами обсудить мифы вокруг искусственного интеллекта. Поговорили про AGI и массовые увольнения из-за внедрения ИИ, но с определенной долей скепсиса. И вот почему. Дело в том, что по свежим данным 56 процентов CIO в мире за последний год не получили от ИИ ни роста выручки, ни снижения затрат. Удивлены?
GPT-5.5, DeepSeek V4 и Kimi K2.6 уже доступны в Veai
Прогнали на нашем интерактивном бенчмарке gpt-5.5 показывает заметно более надёжный профиль работы с инструментами и проверкой собственного результата, чем gpt-5.4. По формальной проверке корректности результата gpt-5.5 успешно закрывает на 20% больше
О нюансах работы приложений на базе искусственного интеллекта
Когда разработчик получает задачу, он её сначала декомпозирует: разбивает на части, ищет зависимости, проектирует решение. Потом уже пишет код.LLM делает наоборот. Она сразу начинает генерировать — точнее, перебирать паттерны из своего обучающего корпуса, пока не наткнётся на что-то похожее: без проектирования, без понимания.
Agent Harness: одна LLM, разные результаты — в чем секрет?
Использование кодовых агентов (Codex, Cursor, Claude Code) стало обыденностью. Внутри разных AI-агентов могут использоваться одни и те же модели, но результаты будут сильно отличаться. Например, есть мнение, что Cursor лучше и быстрее справится с написанием качественного UI, Claude Code покажет себя лучше в проектировании архитектуры приложения, а WindSurf лучше остальных создаст прототип системы. Почему одна и та же модель в разных агентах дает разный результат? Давайте разбираться.
Локальные 200B уже не выглядят фантастикой: что меняют Bonsai и TurboQuant
Последние новости в сфере ИИ натолкнули меня на одну обнадёживающую мысль: локальный запуск очень больших моделей уже не выглядит чем-то совсем фантастическим.Пока это ещё не новая реальность, но последние опубликованные технологи подводят именно к этому. Давайте разберёмся, какие именно новости к этому подводят и чего можно ожидать в ближайшем будущем.PrismML анонсировала и выложила в открытый доступ Bonsai 8B
Приносит ли ИИ измеримую экономическую выгоду?
Этот и другие практические аспекты внедрения нейросетей обсудили на прошедшей 19 марта 2026 года конференции «Бизнес-реал». Организаторы мероприятия — «Навикон» и Yandex Cloud. Артём Письменный, руководитель группы цифровой трансформации в Sminex, выступил с докладом и принял участие в дебатах сторонников и скептиков ИИ.
Границы моего языка — это границы моего мира, или почему AGI недостижим с помощью LLM
Можете ли вы поверить в то, что учитель из Австро-Венгрии предсказал возможности современных LLM и их ограничения еще более 100 лет назад?Сегодня все говорят о пузыре ИИ, но еще недавно от LLM многие ждали прорыва, и даже возможной дороги к AGI. Но на чем основывались эти ожидания? И почему мы поверили в этот мираж? Эта история о том, как природу этого миража один человек увидел еще более века назад. И его имя — Людвиг Витгенштейн.
Полноценный GPT в 243 строках Python от Andrej Karpathy
Andrej Karpathy только что создал полноценный GPT в 243 строках PythonАннотация: В феврале 2026 года известный исследователь ИИ Андрей Карпати опубликовал проект microGPT — минималистичную реализацию трансформера, обучающуюся и выполняющую инференс всего в 243 строках чистого Python без внешних зависимостей. Этот «арт-проект» демонстрирует фундаментальные математические принципы работы больших языковых моделей, делая архитектуру GPT прозрачной и доступной для изучения. ]Краткое содержаниеАспектОписаниеАвтор проекта

