Ловушка невозвратных затрат: как мозг доплачивает нам за бесполезные страдания
Вы купили онлайн-курс по Rust, но на третьем модуле поняли — не отзывается, мотивации нет, залипаете в чужих туториалах вместо своего материала. Но все равно продолжаете смотреть. Каждый вечер. Через силу. Если бы курс был подарен, закрыли бы вкладку через неделю.
Шайтан‑коробочка: Как карманная игра из 90-х научилась читать мысли людей
90-е запомнились везде по разному: где‑то они были лихие, где‑то благословенные. Но для ИИ это десятилетие было настоящим ренессансом.
Принцип технологической гравитации: как представления о человеке влияют на инновации. Этика vs онтология
В статье рассматривается феномен технологической гравитации: зависимость успешности массового внедрения технологий от имплицитного представления о «природе» конечного пользователя. На примерах Web3, генеративных нейросетей и социальных платформ демонстрируется, что технологии, ориентированные на рационального и ответственного субъекта, остаются нишевыми, в то время как технологии, обслуживающие импульсивность и лень, захватывают рынок. Формулируется закон обратной корреляции между этической нагрузкой на пользователя и широтой охвата аудитории.Фундамент техноэтики
Основы глубокого обучения. Часть 1
🙂 Приветствую всех! Эта статья будет первой в серии статей про основы глубокого обучения. В этой части я расскажу про то, что такое модели, искусственный интеллект (ИИ), машинное (МО) и глубокое обучение (ГО), про виды этапа обучения моделей, что такое нейронные сети, градиентный спуск и обратное распространение. В конце затронем теорию свёрточных нейронных сетей.Модель — это функция, закодированная в виде программы (по сути слова синонимы).Искусственный интеллект
Как ИИ научился водить машины (и не только)
Умная машина, которая объезжает переходящих дорогу уточек и умеет парковаться сама, появилась не так давно. Но для человечества это была целая эпопея, которая длилась почти 500 лет (!)
Почему бенчмарки в AI сломались — и что с этим делать в понедельник
В январе 2026 года Янн Лекун, уходя из Meta, сказал в интервью Financial Times про релиз Llama 4: «The results were fudged a little bit» (Fast Company, 6 января 2026). Команда показывала на LMArena одну версию модели, в продакшен ушла другая. На бенчмарке всё было правильно. В реальности код был хуже DeepSeek V3.Я хочу разобрать эту историю. Не потому что Meta — исключение. Потому что они — симптом.TL;DR.

