Под капотом у ИИ
Если вдруг автомобильный дилер скажет про свои автомобили, что у них под капотом двигатель, цикл которого состоит двух изотерм и двух адиабат и коэффициент полезного действия .., короче "Цикл Карно — идеальный термодинамический цикл". То Вы наверно покрутите у виска пальцем (к счастью не все покрутят и некоторые поймут и выслушают, может даже потом объяснят тем, кто хочет слушать) и пойдёте к другому. Но эти слова - правда и ничего кроме правды, но она вам не нужна.
Вебинары трека Наука о данных Летней цифровой школы Сбера
Вебинары трека Наука о данных Летней цифровой школы СбераПривет, коллеги ML инженеры, Data scientist'ы и все, кто интересуется искусственным интеллектом, созданием нейросетей, машинным обучением и анализом данных! Принёс вам пачку вебинаров с интенсива трека Наука о данных курсов повышения квалификации Летней цифровой школы Сбера.1) Process Mining
Как ИИ меняет философию: от рефлексии к мышлению через prompt
Философия всегда была искусством размышления но её инструменты оттачивались веками. Выделим три самых известных метода: диалектика, логика и понятийный анализ. Диалектика Гегеля строила мосты между противоречиями, логика Аристотеля задавала правила вывода, а аналитическая философия XX века разлагала понятия на атомарные составляющие (из-за чего наше время потерялось в пост-смыслах).Диалектика – мышление через диалог
Поисковые подсказки: подход «генератор-дискриминатор»
Всем привет! Меня зовут Федор Курушин, я занимаюсь машинным обучением в поиске Wildberries. Прямо сейчас я работаю над развитием сервиса персональных поисковых подсказок.Недавно вместе с коллегой мы представляли нашу совместную работу Product Search Prompts: Generator-Discriminator Approach на конференции FICC 2025.О подходе, который мы разработали для создания поисковых подсказок и для поиска релевантных похожих запросов для разных бизнес-сценариев, и пойдет речь в этой статье.
Как мы обучали модели для кода GigaCode
Привет, Хабр Меня зовут Дмитрий Бабаев, я руководитель R&D GigaCode в Сбере. Сегодня расскажу о том, как мы создавали ИИ‑помощника для программистов задолго до того, как это стало мейнстримом.
Прорыв от Google: активное обучение с экономией данных на 10 000× при дообучении LLM
Google разработала масштабируемый процесс active learning, который позволяет в десятки тысяч раз сократить объём размеченных данных, необходимых для тонкой настройки больших языковых моделей на сложных задачах — например, при модерации рекламного контента.
По следам GPT-5: как LLM все сильнее превращается в айфон
LLMки можно любить и ненавидеть, но нельзя отрицать того, что это что-то очень большое и сильно трансформирующее все вокруг. Я регулярно и помногу размышляю над AI-агентами и в целом траекторией genAI движения и после вчерашней презентации GPT-5 мой личный паззлик окончательно сложился. Все это очень похоже на то, что мы уже видели.И это — iPhone.
Оптимизация LLM: LoRA и QLoRA
Масштабируемые методы тонкой настройки для больших языковых моделей.С появлением ChatGPT стало очевидно, какими многообещающими могут быть большие языковые модели, способные понимать естественный язык и точно отвечать на запросы пользователей. Таким моделям присуще огромное количество параметров: современные LLM нередко содержат их более миллиарда.
Российские школьники завоевали 6 золотых медалей на Международной олимпиаде по искусственному интеллекту IOAI 2025
Команда старшеклассников из России завоевала
Новый приказ ФСТЭК: что нужно знать разработчикам Ai-сервисов для госсектора
Привет! Меня зовут Андрей, я руковожу отделом продуктов клиентской безопасности в Selectel

