llm. - страница 52

llm.

Как мы научили нейросеть искать связи между инцидентами в SOC

продолжить чтение

Контроль качества переводов на основе ИИ

А вы задумываетесь иногда, что вот хочется что-то сделать такое, чтобы как-то выбиться из общей массы разработчиков? Сейчас придумаю идею, реализую, стану зарабатывать много денег? Все же так думают? Или только я один.

продолжить чтение

Исследователи Яндекса представили RATE — новый метод для оценки и улучшения машинного перевода

Наши исследователи разработали новый метод оценки качества машинного перевода. Эту разработку можно использовать для совершенствования моделей, которые уже переводят тексты довольно точно, но делают это не всегда естественно. Например, в неформальном диалоге модель может перевести «sorry, my bad» как «приношу извинения, это моя вина» вместо «извини, ошиблась». Пользователь заметит, что нейросеть выбрала излишне официальный тон, но существующие системы оценки перевода такие ошибки игнорируют. Новый метод помогает обращать внимание нейросетей на такие недочёты.Новая система оценки Яндекса называется

продолжить чтение

Нейронки (не) плохо понимают юмор

Суть мини исследования в названии. С момента как нейронки стали мультимодальными прошло уже прилично времени. Но, по моему субъективному мнению, нейронки как раньше, так и сейчас плохо справляются как с пониманием того, что именно изображено на картинках. Примечание: в итоге автор переобулся. То же самое с юмором: понять, что что-то смешное – значит проявить по-настоящему интеллектуальную деятельность, включающую в себя и понимание контекста, культуры, социального взаимодействия и даже того, что находится на границе приличия, но все еще относительно приемлемо (тот самый черный юмор).

продолжить чтение

Стартап UMA выводит роботов для промышленности и сервисных сфер

продолжить чтение

LLM-клиент с MCP – дорогой и неэффективный подход в разработке

В наше время тяжело представить разработку цифровых продуктов, в которые хоть в какой-то степени не включили так называемый ИИ на больших языковых моделях (LLM). И я вовсе не против, но у меня вызывают вопросы подходы разработчиков к способам внедрения интеллектуальных инструментов в свои продукты.Думаю, абсолютное большинство оптимальным способом внедрения интеллекта в продукт выбрали использование проприетарных моделей через API, с добавлением кастомного функционала через вызовы MCP серверов. Кажется, это уже даже стало стандартом, и в этом я вижу проблему.

продолжить чтение

От Telegram-бота к AI-агенту: как собрать своего «исполнителя задач» на Python в 2025-м

В 2023–2024 почти каждый второй pet-проект с LLM выглядел как чатик: ты спрашиваешь — модель отвечает, иногда с RAG, иногда без. В 2025-м тренд сместился: на рынке всё чаще говорят про AI-агентов — системы, которые не просто болтают, а сами инициируют действия, ходят в API, планируют шаги и живут в продакшене как часть инфраструктуры.

продолжить чтение

Укрощаем зоопарк API: универсальный Python-клиент для GigaChat, YandexGPT и локальных моделей (v0.5.0)

Привет, Хабр! 👋Если вы пробовали внедрять российские LLM в свои проекты, то наверняка сталкивались с "зоопарком" API. У GigaChat — OAuth2 и свои эндпоинты, у YandexGPT — IAM-токены и gRPC/REST, у локальных моделей через Ollama — третий формат.В какой-то момент мне надоело писать бесконечные if provider == 'gigachat': ... elif provider == 'yandex': ..., и я решил создать универсальный слой абстракции.Так появился Multi-LLM Orchestrator — open-source библиотека, которая позволяет работать с разными LLM через единый интерфейс, поддерживает умный роутинг и автоматический fallback (переключение на другую модель при ошибке).

продолжить чтение

SFT vs RL: Сравнение методов настройки LLM для задач программирования и игровых сред

ВведениеВ современной разработке AI-агентов возникает необходимость адаптации больших языковых моделей (LLM) для решения специфических задач, требующих не просто генерации текста, а выполнения последовательных действий с рассуждениями. В этой статье мы рассмотрим и сравним два основных подхода к настройке моделей: Supervised Fine-Tuning (SFT) и Reinforcement Learning (RL), используя библиотеку TRL (Transformer Reinforcement Learning) от Hugging Face. Мы рассмотрим применение этих методов для двух категорий задач: Задачи программирования:Нахождение подходящего инпута для программы

продолжить чтение

Как мы учим Яндекс Карты предупреждать о манёврах: без использования LLM, но с помощью водителей

продолжить чтение

Rambler's Top100