Смерть fine-tuning? Почему RAG и промпт-инженерия вытесняют дообучение моделей
Привет, Хабр! Я — Владимир Килязов, эксперт по машинному обучению в Cloud.ru. Последние несколько лет я активно помогаю бизнесу и технарям работать с LLM в своих задачах без космических бюджетов.Помните времена, когда для обучения языковой модели новым трюкам, ее обязательно «доводили» на специальных датасетах? Теперь есть и другие варианты. Вместо классического дообучения можно использовать RAG и промт-инженерию, и это будет быстрее и дешевле. Получается, fine-tuning больше не нужен? Про это и порассуждаем тут в статье.
Как устроены нейросети для неспециалистов
Нам часто предлагают врубиться во что-то с места в карьер: «Вот я формулку нарисовал и всем понятно!».
Как я автоматизировал мониторинг цен своей корзины на маркетплейсах и при чем тут LLM
Привет! Маркетплейсы очень сильно изменили нашу жизнь, сделав ее супер удобной. Это классно, но думаю всем знакома картина, когда добавил товар в корзину, отвлекся, а он уже на 500р дороже. Или дешевле. Или вообще продается на косарь меньше на другом маркетплейсе. Ах да, как насчет «зачеркнутых выгодных» цен вида ̶1̶7̶0̶0̶0̶ 800р?Все это превращает покупки в биржу (или большой рынок), где одни и те же товары уезжают разным людям по разным ценам. А если так, то значит это дело надо автоматизировать и хочу рассказать как это сделал я.
Офлайн переводчик на скорости 1000000 символов в секунду
Привет, Хабр!Сегодня хочу рассказать о нашем самом главном продукте офлайн решении для машинного перевода — инструменте, который позволяет компаниям переводить тексты, документы и веб-контент локально, безопасно и на скорости 1 000 000 символов в секунду (на сервере аналогичном 8 x RTX 5090)Почему мы решили сделать это решение
Prompt engineering от А до Я: как получать максимум от ИИ с примерами и советами
Привет, жители Хабра!В постоянно развивающемся мире каждый день приходится осваивать новые технологии: от новых функций в Telegram до автоматизации бизнес-процессов и блокчейна. Как говорил Джек Ма: В будущем 90% рабочих мест будут связаны с технологиями. Если вы не хотите остаться позади, начните изучать их уже сегодня. Не бойтесь ошибаться — бойтесь бездействоватьСпорим, каждый из вас хотя бы раз пользовался языковыми моделями — ChatGPT, DeepSeek, GigaChat? А кто-то применяет их ежедневно или даже сделал частью работы. Но умеете ли вы правильно с ними общаться?
Бенчмарк качества распознавания речи (ASR) в телефонии: как мы сравниваемся с Whisper, GigaAM и T-One
Привет! Распознаванием речи (ASR) уже никого не удивишь, но качественное распознавание на разговорном русском языке, а особенно в телефонии — очень сложная штука: люди редко говорят как профессиональные дикторы, часто бывает плохое качество звука с постоянными шумами на фоне и в целом есть миллиарды прочих нюансов. Наша компания занимается голосом больше 8 лет, есть собственные классные модели синтеза, распознавания и продукты на их основе, поэтому экспериментов мы проводим очень много и за появлением новых голосовых моделей следим очень внимательно.
GPT-5 потребляет в 20 раз больше энергии, чем предыдущие модели
Большая языковая модель GPT-5 от OpenAI потребляет в 20 раз больше энергии для ответа на стандартный запрос, чем предыдущие модели американской компании, пишет Guardian со ссылкой на экспертов.
Сравнение производительности языковых моделей для HR-задач
Цели исследования и задачиМы занимаемся созданием HRTech-сервисов для оценки и развития компетенций специалистов. В наших сервисах применяются LLM и в качестве базового варианта мы использовали разные модели ChatGPT. Основные задачи LLM включают:Сортировку и оценку резюмеОценку и формирование навыков кандидатовВедение диалогов с кандидатамиОценку соответствия требованиям вакансий
Теперь ChatGPT-5 будет придумывать запросы за вас
Похоже, OpenAI решила, что пользователи всё равно думают слишком много — и выкатили инструмент, который будет думать за вас. Речь о генераторе промптов, который сам составит запрос для ChatGPT так, чтобы модель не впала в галлюцинации и не ответила ерунду.

