Прошел первый день конференции по искусственному интеллекту Data Fusion 2026 в кластере Ломоносов. Чего интересного
8 апреля, день первый. Первое, что радует: если заранее не зарегистрировался - на первый день, зацените тавтологию, уже не попадешь. Клево, когда все проходит четко и по плану.В целом мы посещаем уже более 3 конференций DataFusion, были на самой первой в кластере Ломоносов (до этого мероприятие проходило в Сколково). Мероприятие проводится от ВТБ и рассчитано на популярное объяснение новых идей и концепций по искусственному интеллекту и машинному обучению.
Как кодинг-агенты используют инструменты, память и контекст репозитория, чтобы писать код лучше
Это перевод хорошей статьи про базу того, как устроены кодинг-ассистенты и что для них важно: что такое харнесс и харнесс-инжиниринг, в чем разница просто агентной обвязки и кодинговой, что такое компактизация и почему та же самая модель в консольке ощущается мощнее, чем просто в веб-чате. Сильного хардкора и больших откровений в ней нет, но это отличный материал для старта изучения архитектуры кодинг-ассистентов и лучшего понимания, как оно работает внутри.В этой статье я хочу разобрать общую архитектуру кодинг-агентов и агентных харнессов
Почему после коротких видео и ленты так тяжело вернуться к нормальной работе
Открываете ленту на 5 минут, чтобы немного отвлечься. Потом ещё одно видео. Потом ещё парочку новостей. И вот проходит уже 40 минут, а вернуться к работе почему-то неожиданно трудно. И это не потому, что вы ленивы или не умеете себя контролировать - просто после быстрых стимулов обычная работа начинает ощущаться слишком медленной. Знакомо? Мне постоянно.Именно в этом, как мне кажется, и есть главная проблема быстрого дофамина. Он не просто даёт короткое удовольствие - он меняет восприятие остальных задач
SoftBank внёс 10%. Oracle набрала $56 млрд долгов и упала на 50%. Вот и вся история Stargate
Когда амбиции сталкиваются с экономикой, математикой и логикой — математика всегда побеждает.Я писал об этом ещё в
От линейного текста к семантическому графу: строим knowledge‑extraction‑пайплайн для учёбы
Меня зовут Аскольд Романов, я руковожу продуктовой командой в Яндекс Образовании. Сегодня я хочу поделиться историей своего проекта
Target Encoding: кодирование категориальных признаков без утечки данных
Привет, Хабр!У вас столбец «город» с 800 уникальными значениями. One‑hot encoding превратит его в 800 бинарных столбцов, разреженную матрицу и модель, которая переобучится на третьей эпохе. Label encoding присвоит числа от 0 до 799, но модель решит, что Москва (0) «меньше» Владивостока (799), хотя никакого порядка между городами нет. Frequency encoding скажет, что Москва и Питер похожи, потому что обе встречаются часто, хотя по целевой переменной могут отличаться кардинально.Target encoding
«Мозг в пробирке» и новая вычислительная парадигма: почему нейроморфные системы и биокомпьютеры уже не фантастика
Когда в медиа появилась
Искусство промптинга, или Как варить кашу из топора правильно
Всем привет! Я Ольга Матушевич, преподаватель курса «Нейросети для бизнеса», а в прошлом наставница на курсе «Аналитик данных». В этой статье я постараюсь дать рецепт хорошего промпта на все случаи жизни. Если вы пользуетесь популярными нейросетями вроде ChatGPT или Gemini, но при этом получаете стабильно разочаровывающие результаты — читайте дальше.
