AI против рутинной оценки чатов: как мы заменили ручную аналитику чатов LLM
Онлайн‑чат — одна из главных точек контакта клиента с банком. От того, каким будет диалог, зависит не только пользовательский опыт, но и ключевые показатели. Системная работа над качеством поддержки — реальный рычаг влияния на эффективность бизнеса. Необходимо регулярно оценивать диалоги: отмечать, где специалист справился хорошо, а где упустил важные моменты. Своевременная обратная связь даёт возможность поддерживать единый стандарт коммуникации на высоком уровне.
Почему LLM не волшебная таблетка: баланс между скоростью, качеством и достоверностью в NLP & LLM
LLM как нарративный поисковик
Предположение о том, что в основе работы LLM лежат нарративная функция и голографическая природа, можно подтвердить элементарными промптами.Когда вы задаете вопрос LLM, вы получаете не ответ на него, а наиболее вероятное и логичное, с точки зрения модели, продолжение вашего вопроса. LLM не понимает, чего вы хотите. Она получает историю на вход и отдает продолжение этой истории на выходе.
Делаем LLM-советника по акциям РФ как в Alfa Arena
Стартовал шоу-эксперимент Alfa Arena, где шесть LLM моделей (Claude, GPT, Gemini и компания) торгуют криптой на реальные деньги. Каждой дали по $10,000 и сказали: "Докажи, что ты умнее рынка".Сейчас все следят, кто первым сольет или удвоится. Но есть нюанс.Пока вы следите за руками фокусника, фокус происходит в другом местеДавайте честно: краткосрочная торговля — это казино с калькулятором. Сегодня +40%, завтра -30%, послезавтра модель объяснит почему это было "стратегически верно". Крипта непредсказуема как женщина после третьего бокала, и никакая LLM этого не изменит.
Обзор проблем и решений в ризонинговых LLM. Часть 3
В первой части мы рассмотрели ключевые проблемы логического рассуждения в LLM и показали, в чём именно модели ошибаются.Во второй части узнали, какие существуют методы решения LLM логических задач, а также посмотрели на их сильные и слабые стороны. В этой – мы обсудим, как модели иногда идут вразрез с собственной логикой и что эксперты предпринимают, чтобы это исправить.ЛОГИЧЕСКАЯ СОГЛАСОВАННОСТЬ
Обзор проблем и решений в ризонинговых LLM. Часть 2
В первой части мы рассмотрели ключевые проблемы логического рассуждения в LLM и показали, в чём именно модели ошибаются.В этой – мы обсудим методы, с помощью которых LLM решают логические задачи, включая внешние решатели, подсказки и обучение на логических примерах, а также их сильные и слабые стороны.Логическое решение вопросовДля проверки того, как LLM решают логические задачи, мы создали разные тестовые наборы
Обзор проблем и решений в ризонинговых LLM. Часть 1
Как-то раз мы со студентами-переводчиками по ИТ задались вопросом: А реально ли LLM «думает»? Или она просто, подобно школьнику, подгоняет объяснения под ответ в конце учебника, не имея ни малейшего понятия, ни о том, правилен ли этот ответ или логичны ли ее рассуждения? Поиски ответов на этот вопрос привели нас к статье-исследованию "Empowering LLMs with Logical Reasoning: A Comprehensive Survey", адаптированный перевод которой мы и предоставляем вашему вниманию. Над переводом мы работали вместе с коллегой – Губановой Екатериной.
Промпт-инжиниринг мёртв? Почему «как спросить» больше не важно, и что приходит на смену
Новое исследование от Anthropic, создателей Claude, ставит крест на классическом промпт-инжиниринге. Их вывод: эффективность ИИ-агентов теперь определяется не тем, как вы спросите, а тем, какие данные вы им предоставите. На сцену выходит контекст-инжиниринг.У этого есть пара предпосылок:Битва за контекстное окно проиграна. Его практически невозможно расширить, а стоимость обработки длинных контекстов растёт квадратично.Сама по себе идеально сформулированная задача ничего не решает, если нет контекста.

