llm. - страница 179

llm.

Метрики оценки LLM: полное руководство по оценке LLM

Независимо от того, улучшаете ли вы точность модели путем дообучения или улучшаете контекстную релевантность системы генерации с дополненной выборкой (RAG), понимание того, как разрабатывать и выбирать подходящий набор метрик оценки LLM для вашего варианта использования, является обязательным для построения надежного конвейера оценки LLM.

продолжить чтение

LLM в телекоме, ЦОД и на периферии [исследования]

Работа с большими языковыми моделями не только требует серьезных вычислительных ресурсов (например, облачных GPU), но и грамотного их использования. Зачастую инженерам приходится учитывать специфические особенности работы GPU-кластеров.

продолжить чтение

Делимся материалами с RSHB QA MeetUP: AI в тестировании

18 декабря в офисе РСХБ-Интех (Москва, Профсоюзная 125А) прошел митап для QA-инженеров RSHB QA MeetUP: AI в тестировании, организованный РСХБ.цифра при поддержке JUG Ru Group и Сколково.  Рассказываем о том, как прошел митап, о чем рассказывали спикеры, а также даем записи докладов и другие материалы мероприятия.

продолжить чтение

Я, робот или как использовать генеративный ИИ для своего первого пет-проекта

Привет, Хабр!На новогодних праздниках исполнил свою давнюю мечту, собрал на Python сервис, который показывает случайный эпизод любимого сериала «Друзья» (Friends). Хостится локально на мини-ПК с Raspberry Pi (Debian 11), пока доступен только для домашних по WiFi.Решить "проблему белого листа" помог Claude 3.5 Sonnet, он же написал весь код и отвечал на мои глупые вопросы, помогал разобраться почему все не заработало с первого раза 😅

продолжить чтение

Большие Физические Модели: На пути к совместному подходу с использованием Больших Языковых Моделей

Здравствуйте! Меня зовут Богдан, я являюсь автором телеграм канала про нейросети в телеграме, посчитал эту статью очень интересной для перевода, приятного прочтения Аннотация

продолжить чтение

Почему токенизация – костыль? Передовые подходы для больших языковых моделей следующего поколения

продолжить чтение

Тренды ИИ-2025

Всем привет! Я Федор Горбунов, руководитель направления машинного обучения в Doubletapp. Сегодня поговорим о том, какие значимые для искусственного интеллекта события произошли в 2024 году и попробуем спрогнозировать вектор развития отрасли в будущем.

продолжить чтение

Улучшаем RAG с помощью графов знаний

Знакомство с RAG и связанными с ним проблемамиГенерация с дополненной выборкой (RAG) — это метод, который соединяет внешние источники данных для улучшения вывода больших языковых моделей (LLM). Этот метод идеально подходит для LLM для доступа к частным или специфичным для предметной области данным и решения проблем, связанных с галлюцинациями. Поэтому RAG широко используется для поддержки многих приложений GenAI, таких как чат-боты AI и

продолжить чтение

В Ollama появилась новая модель Phi-4

Phi-4 — новая открытая модель, разработанная Microsoft и уже доступная в Ollama (https://ollama.com/library/phi4).

продолжить чтение

LLM это не AI

Ответы LLM недетерминированны – можно задать один и тот же вопрос несколько раз и каждый раз получать разные ответы.Например, стандартный вопрос из тестов на IQ:* Start with a full cup of black coffee (no milk) and drink one-third of it. * Now pour into the cup an amount of milk equal to the coffee you have just drunk, and stir well. * Now drink a further half of the resultant mixture. * Now pour into the cup a further amount of milk equal to the mixture you have just drunk and stir well again. * Now drink one-sixth of the resultant mixture. * Now pour into the cup a further amount of milk equal to the mixture you have just drunk, stir well, and finally, drink the whole cup of liquid. Have you drunk more milk or more coffee in total? Ответ:

продолжить чтение

Rambler's Top100