Запрещённая математика в твоём autograd: бесконечно малые, дуальные числа и нестандартный анализ
TL;DRКогда вы пишете loss.backward(), ваш autograd делает то, что 200 лет считалось математической ересью: оперирует бесконечно малыми как настоящими числами. В 1960 году Абрахам Робинсон формализовал эту «ересь» в виде нестандартного анализа. Forward-mode автодифференцирование, на котором держатся JAX, PyTorch и пол-индустрии — это его обрезанная версия. В этой статье разберём гиперреалы и монады, реализуем дуальные числа в коде.Проблема, о которой не говорятОткройте любой учебник термодинамики. Найдите там первое начало:dU=δQ−δAОдин значок прямой, другой — кривой. Спросите автора учебника, чем δQ
Концепция Байесовского мозга, или Почему этот заголовок в моменте — ваша галлюцинация
Помните то самое платье?
Промпт-инжиниринг для не-промпт-инженеров
Разбор доклада Anthropic «Prompting 101» на реальном кейсеLLM уже давно не только про «сгенерировать текст» или «сделать картинку». Их всё чаще используют в работе — для анализа ресёрча, обработки звонков, генерации артефактов, автоматизаций в n8n и Make. И проблема в том, что «просто написать промпт» почти никогда не работает.В какой-то момент понимаешь, что без этого уже тяжело работать. Приходится разбираться: API, промпты, какие-то flow, как это всё между собой склеить и не развалить по дороге.Я посмотрел доклад Prompting 101
Карпатый объяснил, почему ваши навыки программирования скоро станут ненужными. Или нет
Андрей Карпатый, бывший директор AI в Tesla и один из создателей OpenAI, на прошлой неделе дал интервью Sequoia Capital: Ссылка на видео: Andrej Karpathy: From Vibe Coding to Agentic Engineering (Sequoia Capital, 29 апреля 2026, ~30 мин). Я пересмотрел дважды, потому что первый раз не поверил в то, что услышал. Ниже мой вольный пересказ с комментариями из собственной практики.Декабрь 2025: что-то щёлкнуло
Классификация галлюцинаций LLM | «Врага нужно знать в лицо»
Дисклеймер: В этой статье я систематизировал ключевые фундаментальные предпосылки / причины галлюцинаций, постарался объяснить их природу и предложил архитектурные подходы к их предупреждению / устранению.Для кого будет эта статья полезна:Если вы изучаете LLM и хотите лучше понимать «как ее обуздать?», то внимательное изучение этой статьи позволит вам стать своеобразным «терапевтом» для нейросетей. Системный подход к присущим им болезням дает осознание, что многие из них лечатся просто «чистоплотностью промптинга и окружения».
В чём парадокс вайбкодинга
Привет, Habr =)Вайбкодинг сейчас у всех на слуху. Звучит как магия: ты просто болтаешь с нейросетью, а она пишет код. Рутина уходит, клавиатура отдыхает, результат растёт сам собой.Тебе не нужно помнить синтаксис. Не нужно листать документацию. Не нужно гуглить «как в Python перевернуть словарь». Просто написал по-русски, что хочешь, и через десять секунд получил готовый кусок кода с комментариями и обработкой ошибок.Красивая картинка, правда?
Claude пишет — бот работает: полный цикл создания Telegram-бота
Привет, Хабр!В последние годы разработка ускорилась так, что старые подходы уже не успевают за новыми реалиями. Но дело не в новых языках или фреймворках. Появился другой рабочий сценарий — когда разработчик перекладывает часть рутины на нейросеть и ведёт её через обычный диалог. Это и называют вайбкодингом.Звучит как модный термин, но по факту всё просто: вы меньше печатаете, больше управляете. Ставите задачу, задаёте границы, проверяете результат. И да, промптинг здесь — не магия, а обычная инструкция для модели.
Шахматный гений, Сергей Брин и бананы: кто стоит за Gemini. Досье SpeShu.AI
Google купил DeepMind за $650 млн, не увидев ни одного коммерческого продукта, и не прогадал. Команда DeepMind создала отличную текстовую модель Gemini и фотогенератор Nano Banana Pro. Он считался лучшим в мире на протяжении полугода.
Почему будущие ИТ-устройства должны работать без 0 и 1, если они хотят быть ИТ-устройствами будущего
Давно уже пришла пора выбросить на помойку идею арифметико-логических устройств (в просторечии АЛУ), на которых работают ваши и наши компьютеры (ибо именно из-за них все эти технологии перестали быть достаточно круты, чтобы делать действительно клевые штуки не только в фильмах Ридли Скотта), но воз и ныне там.
Эффект «галлюцинаций»: когда ИИ врет уверенным голосом
Статья подготовлена в рамках курса «Машинное обучение для начинающих».Недавно в «беседе» с умной колонкой я задал ей вопрос относительно исполнителя одной музыкальной композиции. Колонка уверенно ответила, однако, так как у меня были сомнения в правильности, я переспросил ее и на этот раз она назвала другое имя. Также, при работе с различными языковыми моделями мне приходилось неоднократно сталкиваться с ситуациями, когда, к примеру, нейросеть неверно указывала нормативные документы, статьи законов и так далее

