языковые модели. - страница 4

Как работать с нейросетями эффективно: теория и практика

продолжить чтение

Галлюцинации LLM: запретить нельзя использовать

Давайте поговорим о галлюцинациях LLM — больших языковых моделей.На первый взгляд это выглядит как ошибка, ложь или выдумка. В недавнем отчёте OpenAI Why Language Models Hallucinate

продолжить чтение

Microsoft нарастит инвестиции в инфраструктуру для обучения собственных ИИ-моделей

Мустафа Сулейман, MicrosoftMicrosoft планирует инвестировать в развитие собственной инфраструктуры для обучения ИИ-моделей. Об этом рассказал глава отдела потребительского ИИ Мустафа Сулейман на внутреннем собрании компании.

продолжить чтение

Почему бокс — это мультиагентная система

Привет! ИИ-агенты — главная горячая тема этого года, но все наверняка видели как их ради хайпа пытаются затащить куда угодно, совсем не глядя на эффективность и какой-либо здравый смысл.В этой статье я расскажу о действительно полезном применении концепции агентов и попробую доказать, почему любой боксерский поединок является мультиагентной системой. Поговорим про system design бокса, про reinforcement learning, адаптивные алгоритмы, всевозможный вызов tools типа джебов или клинча, очереди сообщений и гарантию их доставки, graceful degradation агентов и многое другое.

продолжить чтение

Какая LLM лучше распознает чертежи? Мы сравнили 6 LLM и узнали ответ

продолжить чтение

Почему языковые модели «галлюцинируют»

Команда AI for Devs подготовила перевод статьи OpenAI о природе галлюцинаций языковых моделей. Почему модели уверенно «выдумывают» факты, как это связано с предсказанием следующего слова и почему традиционные метрики только усиливают проблему?В OpenAI мы активно работаем над тем, чтобы сделать ИИ-системы полезнее и надёжнее. Но даже по мере роста их возможностей остаётся одна упрямая проблема: галлюцинации. Под этим мы понимаем случаи, когда модель уверенно выдаёт ответ, который на самом деле неверен. В нашей новой

продолжить чтение

ИИ — просто мешок слов. Как перестать видеть интеллект там, где его нет

Или: Claude, пойдёшь со мной на выпускной?Слушайте, я не знаю, уничтожит ли нас когда-нибудь искусственный интеллект, сделает ли он нас всех богатыми или что-то ещё, но одно я знаю точно: мы всё ещё используем неправильную метафору.Мы пытаемся понимать эти модели как людей. Когда вы задаете вопрос ChatGPT, а он отвечает полноценными предложениями, кажется, будто внутри сидит крошечный человечек и печатает ответы. Возникает яркое ощущение «он живой!!», и мы включаем весь арсенал ментальных механизмов, который эволюционировал для взаимодействия с другими людьми:

продолжить чтение

Смерть fine-tuning? Почему RAG и промпт-инженерия вытесняют дообучение моделей

Привет, Хабр! Я — Владимир Килязов, эксперт по машинному обучению в Cloud.ru. Последние несколько лет я активно помогаю бизнесу и технарям работать с LLM в своих задачах без космических бюджетов.Помните времена, когда для обучения языковой модели новым трюкам, ее обязательно «доводили» на специальных датасетах? Теперь есть и другие варианты. Вместо классического дообучения можно использовать RAG и промт-инженерию, и это будет быстрее и дешевле. Получается, fine-tuning больше не нужен? Про это и порассуждаем тут в статье.

продолжить чтение

Как устроены нейросети для неспециалистов

Нам часто предлагают врубиться во что-то с места в карьер: «Вот я формулку нарисовал и всем понятно!».

продолжить чтение

Как OpenAI передаёт ИИ «голос общества»: итоги коллективного эксперимента

продолжить чтение

1...234567...14
Rambler's Top100