языковые модели. - страница 4

Почему языковые модели «галлюцинируют»

Команда AI for Devs подготовила перевод статьи OpenAI о природе галлюцинаций языковых моделей. Почему модели уверенно «выдумывают» факты, как это связано с предсказанием следующего слова и почему традиционные метрики только усиливают проблему?В OpenAI мы активно работаем над тем, чтобы сделать ИИ-системы полезнее и надёжнее. Но даже по мере роста их возможностей остаётся одна упрямая проблема: галлюцинации. Под этим мы понимаем случаи, когда модель уверенно выдаёт ответ, который на самом деле неверен. В нашей новой

продолжить чтение

ИИ — просто мешок слов. Как перестать видеть интеллект там, где его нет

Или: Claude, пойдёшь со мной на выпускной?Слушайте, я не знаю, уничтожит ли нас когда-нибудь искусственный интеллект, сделает ли он нас всех богатыми или что-то ещё, но одно я знаю точно: мы всё ещё используем неправильную метафору.Мы пытаемся понимать эти модели как людей. Когда вы задаете вопрос ChatGPT, а он отвечает полноценными предложениями, кажется, будто внутри сидит крошечный человечек и печатает ответы. Возникает яркое ощущение «он живой!!», и мы включаем весь арсенал ментальных механизмов, который эволюционировал для взаимодействия с другими людьми:

продолжить чтение

Смерть fine-tuning? Почему RAG и промпт-инженерия вытесняют дообучение моделей

Привет, Хабр! Я — Владимир Килязов, эксперт по машинному обучению в Cloud.ru. Последние несколько лет я активно помогаю бизнесу и технарям работать с LLM в своих задачах без космических бюджетов.Помните времена, когда для обучения языковой модели новым трюкам, ее обязательно «доводили» на специальных датасетах? Теперь есть и другие варианты. Вместо классического дообучения можно использовать RAG и промт-инженерию, и это будет быстрее и дешевле. Получается, fine-tuning больше не нужен? Про это и порассуждаем тут в статье.

продолжить чтение

Как устроены нейросети для неспециалистов

Нам часто предлагают врубиться во что-то с места в карьер: «Вот я формулку нарисовал и всем понятно!».

продолжить чтение

Как OpenAI передаёт ИИ «голос общества»: итоги коллективного эксперимента

продолжить чтение

Как я автоматизировал мониторинг цен своей корзины на маркетплейсах и при чем тут LLM

Привет! Маркетплейсы очень сильно изменили нашу жизнь, сделав ее супер удобной. Это классно, но думаю всем знакома картина, когда добавил товар в корзину, отвлекся, а он уже на 500р дороже. Или дешевле. Или вообще продается на косарь меньше на другом маркетплейсе. Ах да, как насчет «зачеркнутых выгодных» цен вида ̶1̶7̶0̶0̶0̶ 800р?Все это превращает покупки в биржу (или большой рынок), где одни и те же товары уезжают разным людям по разным ценам. А если так, то значит это дело надо автоматизировать и хочу рассказать как это сделал я.

продолжить чтение

Офлайн переводчик на скорости 1000000 символов в секунду

Привет, Хабр!Сегодня хочу рассказать о нашем самом главном продукте офлайн решении для машинного перевода — инструменте, который позволяет компаниям переводить тексты, документы и веб-контент локально, безопасно и на скорости 1 000 000 символов в секунду (на сервере аналогичном 8 x RTX 5090)Почему мы решили сделать это решение

продолжить чтение

Prompt engineering от А до Я: как получать максимум от ИИ с примерами и советами

Привет, жители Хабра!В постоянно развивающемся мире каждый день приходится осваивать новые технологии: от новых функций в Telegram до автоматизации бизнес-процессов и блокчейна. Как говорил Джек Ма: В будущем 90% рабочих мест будут связаны с технологиями. Если вы не хотите остаться позади, начните изучать их уже сегодня. Не бойтесь ошибаться — бойтесь бездействоватьСпорим, каждый из вас хотя бы раз пользовался языковыми моделями — ChatGPT, DeepSeek, GigaChat? А кто-то применяет их ежедневно или даже сделал частью работы. Но умеете ли вы правильно с ними общаться?

продолжить чтение

Бенчмарк качества распознавания речи (ASR) в телефонии: как мы сравниваемся с Whisper, GigaAM и T-One

Привет! Распознаванием речи (ASR) уже никого не удивишь, но качественное распознавание на разговорном русском языке, а особенно в телефонии — очень сложная штука: люди редко говорят как профессиональные дикторы, часто бывает плохое качество звука с постоянными шумами на фоне и в целом есть миллиарды прочих нюансов. Наша компания занимается голосом больше 8 лет, есть собственные классные модели синтеза, распознавания и продукты на их основе, поэтому экспериментов мы проводим очень много и за появлением новых голосовых моделей следим очень внимательно. 

продолжить чтение

GPT-5 потребляет в 20 раз больше энергии, чем предыдущие модели

Большая языковая модель GPT-5 от OpenAI потребляет в 20 раз больше энергии для ответа на стандартный запрос, чем предыдущие модели американской компании, пишет Guardian со ссылкой на экспертов.

продолжить чтение

1...234567...13
Rambler's Top100