llm. - страница 48

llm.

Instinct от Continue: будущее автоматического рефакторинга

Команда AI for Devs подготовила перевод статьи о том, как Continue обучила Instinct — открытую модель Next Edit для предсказания следующей правки кода. Разработчики собрали тысячи реальных правок, внедрили алгоритм SeleKT для обучения и показали, что их модель работает в 6,4 раза быстрее ручного редактирования.Мы рады представить Instinct — открытую Next Edit-модель, которая умно предугадывает ваши действия и поддерживает рабочий ритм.Когда мы запускали Next Edit, её впервые представил

продолжить чтение

Репозитории на автопилоте: как ИИ сам поднимает окружение и запускает код

продолжить чтение

Перевод датасета для оценки эмпатии на русский язык: подход, проблемы, результаты

Привет. Меня зовут Нафиса Валиева. Я младший разработчик в MWS AI и Пситехлабе, студентка 3го курса ПМ-ПУ СПбГУ. Этот пост — текстовый вариант моего выступления на Дата Фесте. Я расскажу вам, как мы в команде Пситехлаб переводили интересный датасет с английского на русский с помощью больших языковых моделей (далее - БЯМ). Сам подход основан на ранней работе нашего руководителя. Отличие в том, что здесь мы детально анализируем поведение различных БЯМ. Зачем это вообще и что за датасет такой

продолжить чтение

Как я заменил систему диалогов старой игры на живую LLM

Купи: «Божечки, Джош :)! Мне приснился самый странный сон: как будто всё, что мы делаем, происходит в игре! Гав!»

продолжить чтение

Собираем «идеального душнилу»: как создать ИИ-агента, который завалит вашего чат-бота

продолжить чтение

Готовим данные для LLM: открытые инструменты для нормализации, очистки и не только

Компании активно внедряют у себя решения на основе больших языковых моделей: боты техподдержки, умный поиск по базе знаний, выявление мошенников в диалоге или HR-ассистенты.

продолжить чтение

GEPA вместо RL: как рефлексивная эволюция промптов обгоняет обучение с подкреплением

АннотацияБольшие языковые модели (LLMs) всё чаще адаптируются к downstream-задачам с помощью методов RL, таких как Group Relative Policy Optimization (GRPO), которые нередко требуют тысячи прогонов для освоения новых задач. Мы утверждаем, что интерпретируемая природа языка может предоставлять LLM куда более богатую обучающую среду по сравнению с policy gradient’ами, основанными на разреженных скалярных наградах.

продолжить чтение

Тестируем пять моделей DeepSeek R1 и Qwen3 на серверах YADRO

Привет, Хабр. Меня зовут Дмитрий Крюков, я инженер по разработке ПО искусственного интеллекта в YADRO. Мы продолжаем рассказывать о возможностях GPU-серверов YADRO G4208P и YADRO VEGMAN R220 G2

продолжить чтение

Как ИИ начинает понимать чёрный юмор

продолжить чтение

Современные генеративные модели и приложения на их основе

продолжить чтение

Rambler's Top100