llm. - страница 119

llm.

10 примеров и вариантов использования RAG от реальных компаний. Со схемами и пояснениями

Приходилось ли вам когда-нибудь упрекать чат-бот с LLM — к примеру, ChatGPT или Claude — в устаревшей или неточной информации?Дело в том, что, формируя ответ, крупные языковые модели (LLM) опираются на наборы данных, на которых они были обучены. Однако, поскольку их основная задача — предсказывать текст, а не извлекать факты, на их точность нельзя полагаться во всех случаях. Кроме того, обучающие датасеты обычно ограничены общедоступными данными и в некоторых областях быстро теряют актуальность.

продолжить чтение

Вышла новая GPT-4.5 preview, она сделает меня банкротом

Несколько часов назад (на момент написания статьи) я получил информационный e‑mail от OpenAI с темой «GPT-4.5 research preview» — компания релизит свою самую большую модель на данный момент времени.Информационный e-mail от OpenAI

продолжить чтение

OpenAI выпустили технический отчет новой GPT-4.5: чем она лучше предшественников?

Сегодня OpenAI выпускают новую модель GPT-4.5 (трансляция тут), а вместе с ней и технический отчет. Давайте узнаем, что улучшилось в GPT-4.5 по сравнению с предыдущими моделями компании.

продолжить чтение

Новые модели искусственного интеллекта Phi-4 от Microsoft сочетают в себе большую производительность и компактность

Microsoft представила новый класс высокоэффективных моделей AI, которые обрабатывают текст, изображения и речь одновременно, требуя при этом значительно меньше вычислительной мощности, чем существующие системы. Новые модели Phi-4 , выпущенные сегодня, представляют собой прорыв в разработке малых языковых моделей (SLM), которые предоставляют возможности, ранее зарезервированные для гораздо более крупных систем AI.

продолжить чтение

OctoTools: Стэнфордская платформа с открытым исходным кодом оптимизирует рассуждения LLM

OctoTools, новая агентная платформа с открытым исходным кодом, выпущенная учеными Стэнфордского университета, может ускорить большие языковые модели для задач рассуждения, разбивая задачи на подблоки и улучшая модели с помощью инструментов. Хотя использование инструментов уже стало важным применением LLM, OctoTools делает эти возможности гораздо более доступными, устраняя технические барьеры и позволяя разработчикам и предприятиям расширять платформу собственными инструментами и рабочими процессами.

продолжить чтение

Akool объединяет модели GenAI с 2D-аватарами для создания реалистичных персонажей

Akool , стартап, занимающийся созданием контента для аватаров на основе искусственного интеллекта, объявил об усовершенствованиях  Akool Streaming Avatars , которые связывают аватары с моделями искусственного интеллекта.Akool добавила передовую технологию генерации видео, которая теперь легко интегрируется с большими языковыми моделями (LLM), помогая разработчикам моделей создавать динамичные, реалистичные двухмерные аватары.

продолжить чтение

Вышел Mercury Coder: первая модель на принципиально новой архитектуре dLLM, в 10 раз быстрее LLM

продолжить чтение

Бенчмаркинг AI-агентов: оценка производительности в реальных задачах

AI-агенты уже решают реальные задачи — от обслуживания клиентов до сложной аналитики данных. Но как убедиться, что они действительно эффективны? Ответ заключается в комплексной оценке AI-агентов.

продолжить чтение

LoRA fine-tuning для генерации презентаций: как мы выбирали метод дообучения LLM в presentsimple.ai

Меня зовут Павел, я отвечаю за Data Science в presentsimple.ai — это сервис для создания презентаций с помощью искусственного интеллекта, который генерирует результат по текстовому запросу за пару минут. В этой статье расскажу, как мы собрали для этой задачи ансамбль из нескольких ML‑моделей, как искали наиболее подходящие методы дообучения YandexGPT, и какую роль здесь сыграли LoRA‑адаптеры, которые недавно появились в Yandex Cloud внутри Foundation Models.

продолжить чтение

Квантизация LLM: делаем модели легче в 4 раза

ВведениеСовременные языковые модели (LLM) содержат миллиарды параметров, что создает огромные требования к вычислительным ресурсам. Например:BERT: <1 млрд параметровGPT-2: >1 млрд параметровGPT-3: сотни млрд параметровDeepSeek: 671 млрд параметровТакие модели сложно запускать не только на домашних компьютерах, но даже на серверах среднего уровня. Квантизация - это метод уменьшения размера моделей для более эффективного использования памяти.📊 Форматы хранения чисел в нейросетяхСтандартные форматы

продолжить чтение

Rambler's Top100