языковые модели. - страница 6

DeepSeek обучила LLM за 294 тыс. долларов. Как это удалось и чем этот путь отличается от OpenAI

Разработка больших языковых моделей обычно ассоциируется с астрономическими затратами. Но пример китайской компании DeepSeek показывает, что эта логика не всегда работает: их модель R1 была дообучена всего за 294 тыс. долларов США (на базовую версию ушло около 6 млн). Для сравнения, создание ChatGPT обошлось OpenAI в суммы на порядки выше.

продолжить чтение

«Нет, я не Байрон, я модель». Превращаем прозу в поэзию с нейросетью — мой кейс

Привет всем! Меня зовут Марина, я учусь на втором курсе магистратуры ВШЭ и МТС «

продолжить чтение

Как мы научили ИИ превращать отзывы в деньги

продолжить чтение

Как работать с нейросетями эффективно: теория и практика

продолжить чтение

Галлюцинации LLM: запретить нельзя использовать

Давайте поговорим о галлюцинациях LLM — больших языковых моделей.На первый взгляд это выглядит как ошибка, ложь или выдумка. В недавнем отчёте OpenAI Why Language Models Hallucinate

продолжить чтение

Microsoft нарастит инвестиции в инфраструктуру для обучения собственных ИИ-моделей

Мустафа Сулейман, MicrosoftMicrosoft планирует инвестировать в развитие собственной инфраструктуры для обучения ИИ-моделей. Об этом рассказал глава отдела потребительского ИИ Мустафа Сулейман на внутреннем собрании компании.

продолжить чтение

Почему бокс — это мультиагентная система

Привет! ИИ-агенты — главная горячая тема этого года, но все наверняка видели как их ради хайпа пытаются затащить куда угодно, совсем не глядя на эффективность и какой-либо здравый смысл.В этой статье я расскажу о действительно полезном применении концепции агентов и попробую доказать, почему любой боксерский поединок является мультиагентной системой. Поговорим про system design бокса, про reinforcement learning, адаптивные алгоритмы, всевозможный вызов tools типа джебов или клинча, очереди сообщений и гарантию их доставки, graceful degradation агентов и многое другое.

продолжить чтение

Какая LLM лучше распознает чертежи? Мы сравнили 6 LLM и узнали ответ

продолжить чтение

Почему языковые модели «галлюцинируют»

Команда AI for Devs подготовила перевод статьи OpenAI о природе галлюцинаций языковых моделей. Почему модели уверенно «выдумывают» факты, как это связано с предсказанием следующего слова и почему традиционные метрики только усиливают проблему?В OpenAI мы активно работаем над тем, чтобы сделать ИИ-системы полезнее и надёжнее. Но даже по мере роста их возможностей остаётся одна упрямая проблема: галлюцинации. Под этим мы понимаем случаи, когда модель уверенно выдаёт ответ, который на самом деле неверен. В нашей новой

продолжить чтение

ИИ — просто мешок слов. Как перестать видеть интеллект там, где его нет

Или: Claude, пойдёшь со мной на выпускной?Слушайте, я не знаю, уничтожит ли нас когда-нибудь искусственный интеллект, сделает ли он нас всех богатыми или что-то ещё, но одно я знаю точно: мы всё ещё используем неправильную метафору.Мы пытаемся понимать эти модели как людей. Когда вы задаете вопрос ChatGPT, а он отвечает полноценными предложениями, кажется, будто внутри сидит крошечный человечек и печатает ответы. Возникает яркое ощущение «он живой!!», и мы включаем весь арсенал ментальных механизмов, который эволюционировал для взаимодействия с другими людьми:

продолжить чтение

1...456789...16