llm.
GPT для роботов: как ИИ учится действовать в реальном мире
Привет, Хабр! Меня зовут Артем Якимчук, я инженер-исследователь в Сколтехе и аспирант в области промышленной робототехники.Мы привыкли думать об LLM исключительно в контексте языковых задач: чат-боты, ассистенты, генерация текстов. Но что, если та же самая архитектура способна не просто говорить, но и действовать?Сегодня искусственный интеллект начинает работать и с физическими объектами: распознает их, принимает решения, выполняет задачи в реальном мире — и все это с помощью тех же моделей, которые вы знаете по чат-ботам.В этом материале по мотивам моего доклада для True Tech Day
Новые правила игры: что GPT-5, Genie 3 и Qwen-Image говорят о будущем AI
Я нечасто пишу новостные обзоры, но начало августа 2025 года выдалось таким, что промолчать было бы неправильно. Буквально за одну неделю крупнейшие AI-лаборатории — OpenAI, Google DeepMind и Alibaba — представили несколько релизов, которые, на мой взгляд, заслуживают особого внимания. Я отобрал самые показательные из них, чтобы проанализировать не только их техническую суть, но и то, как они отражают ключевые тренды индустрии. В этом материале мы посмотрим на долгожданное возвращение OpenAI в open-source и запуск GPT-5, прорыв Google в симуляции миров с Genie 3 и элегантное решение Alibaba вечной проблемы с текстом на изображениях.
Лето, наука, Томск: о школе «Лето с AIRI» 2025
Привет, Хабр. Меня зовут Анастасия Янке, я учусь на 2 курсе на направлении «Информатика и вычислительная техника» в Высшей Школе Экономики. Недавно я вернулась из Томска, где принимала участие в летней школе AIRI по искусственному интеллекту, которая прошла на базе ТГУ. Накопленные там эмоции и впечатления побудили меня рассказать о том, как это было. Ну, а если после прочтения вам тоже захочется принять участие в школе в следующем году, в конце вас ждёт несколько советов по тому, как увеличить свои шансы попасть туда. Приятного чтения!
Нейросети простым языком
Привет!В интернете можно найти разные объяснения того, как работают нейросети, но те, что мне попадались, были либо слишком специфичны и ориентированы на специалистов, либо слишком упрощены.Постарался написать свои объяснения, которые были бы не было слишком упрощены, но при этом по возможности понятны.Статья на 10 процентов скомпилирована из других статей, на 30 процентов скомпилирована из множества диалогов с разными LLM и на 60 процентов “написана от руки” на основании статей и ответов.Оглавление
Reflect, Retry, Reward: как RL учит LLM рефлексировать и становиться лучше
Привет, Хабр!Меня зовут Роман, я NLP-инженер в Сбере. Занимаюсь мультиагентными системами и работаю с LLM в проде. Сегодня расскажу про одну из самых интересных статей июня по версии Huggingface Daily Papers — Reflect, Retry, Reward: Self-Improving LLMs via Reinforcement Learning.TL;DRАвторы предлагают простой, но мощный метод: если первая попытка модели провалилась, она должна написать краткую саморефлексию, а затем сделать повторную попытку. Если она успешна — награду получают только токены саморефлексии.
Nvidia призывает ИИ-индустрию переосмыслить агентный подход в пользу компактных моделей
По мнению специалистов Nvidia, индустрия слишком увлеклась крупными языковыми моделями (LLM) для работы агентов — подходом, который, как они утверждают, экономически и экологически нежизнеспособен.В недавней научной статье они предлагают пересмотреть стратегию: большинство агентов, уверены авторы, могут работать не хуже, если использовать компактные языковые модели (SLM), и призывают компании изменить подход.В 2024 году рынок API LLM для агентных систем оценивался в 5,6 млрд $, но расходы на облачную инфраструктуру для их работы достигли 57 млрд $ — разрыв 10 к 1.
Стирая языковые границы для NLP-датасетов
Всем привет. В этом посте расскажем, как мы тестировали БЯМ для переноса англоязычных датасетов на русский. «Мы» — это ваш покорный слуга и ребята из ФИЦ ИУ РАН. Пост по факту перевод нашей научной статьи, которая была опубликована еще в апреле, но вот руки до поста дошли только сейчас.
Я потратил 30000 кредитов на ElevenLabs music, стоит ли?
Как я попал в кроличью нору AI музыкиВсем привет, я думаю некоторые из вас уже слышали про новый text-to-music сервис от ElevenLabs. Буквально вчера вечером я увидел у себя на почте новости по AI и среди них, кроме выхода GPT-5, OSS, Opus 4.1 закралась эта text-to-music моделька.Я сразу же открыл стартовую страничку: https://elevenlabs.io/music и впал в легкий шок.Я уже привык ловить кринж с видосов от Veo и Sora, от озвучки аватаров от HeyGen(с которым кстати у меня есть небольшой проект
AI для Rider в разработке под Unity
Давно не касался темы AI, хотя в этой сфере постоянно происходит много нового.

