llm. - страница 93

llm.

Собираем «идеального душнилу»: как создать ИИ-агента, который завалит вашего чат-бота

продолжить чтение

Готовим данные для LLM: открытые инструменты для нормализации, очистки и не только

Компании активно внедряют у себя решения на основе больших языковых моделей: боты техподдержки, умный поиск по базе знаний, выявление мошенников в диалоге или HR-ассистенты.

продолжить чтение

GEPA вместо RL: как рефлексивная эволюция промптов обгоняет обучение с подкреплением

АннотацияБольшие языковые модели (LLMs) всё чаще адаптируются к downstream-задачам с помощью методов RL, таких как Group Relative Policy Optimization (GRPO), которые нередко требуют тысячи прогонов для освоения новых задач. Мы утверждаем, что интерпретируемая природа языка может предоставлять LLM куда более богатую обучающую среду по сравнению с policy gradient’ами, основанными на разреженных скалярных наградах.

продолжить чтение

Тестируем пять моделей DeepSeek R1 и Qwen3 на серверах YADRO

Привет, Хабр. Меня зовут Дмитрий Крюков, я инженер по разработке ПО искусственного интеллекта в YADRO. Мы продолжаем рассказывать о возможностях GPU-серверов YADRO G4208P и YADRO VEGMAN R220 G2

продолжить чтение

Как ИИ начинает понимать чёрный юмор

продолжить чтение

Современные генеративные модели и приложения на их основе

продолжить чтение

Опыт вайбкодинга: как заставить нейросеть работать эффективно

Данная статья написана и отредактирована мной вручную, специально, чтобы подчеркнуть ценность ручного труда в эпоху нейросетей.Сегодня, в начале XXI века, искусственный интеллект уже стал частью нашей повседневности. Мы спокойно спрашиваем у Алисы прогноз погоды, видим тексты и советы от ИИ в поиске, а изображения или даже видеоролики, созданные нейросетью, никого не удивляют.

продолжить чтение

Внедрение ИИ в бизнесе. Что внедрять, как внедрять и, главное, — зачем

продолжить чтение

ADSM: границы возможностей Моделей

Мое понимание LLM с точки зрения пользователя очень простое: есть сетка с весами (обученные параметры), токенизатор и декодер (преобразователи текста во входные и выходные токены), и трансформер (слои внимания), который перерабатывает входные токены и шаг за шагом предсказывает новые.Я пробовал разные Модели (GPT, Gemini, Deepseek, Grok) - все они, на мой взгляд, работают примерно одинаково. На один и тот же запрос они дают очень похожие, а иногда и идентичные ответы. Это ожидаемо, ведь все современные LLM построены на одной и той же архитектуре - трансформерах.

продолжить чтение

Yandex Cloud проведёт 24 сентября 2025 года конференцию Yandex Neuro Scale 2025

Сервис Yandex Cloud открыл

продолжить чтение

Rambler's Top100