llm. - страница 46

llm.

Как превратить сценарного чат-бота в умного бота на основе ИИ

Привет, Хабр! На связи Иван Жирнов и Степан Рыбалов, тимлид и QA группы разработки чат-ботов в компании «Передовые Платежные Решения». В работе мы используем ботов собственной разработки. До AI-революции чат-боты были сценарные и весьма ограниченные. С нейросетями же их возможности стали головокружительно шире. В этой статье мы расскажем о том, как и зачем перешли на чат-ботов с ИИ, чтобы наш опыт мог помочь в проекте и вам.

продолжить чтение

Вайбкодинг: как я чуть не снес БД по совету Claude Opus, или Почему ИИ пока еще не замена человеку

Вайбкодинг обещает нам будущее, где мы лишь «менеджеры кода», а всю работу делают нейросети. Я всегда скептически относился к этому, и суровая реальность деплоя лишь подтвердила мои опасения. Мой проект лег, процессор забился под 100%, а «самая умная» кодинг-модель Claude Opus 4.5 настойчиво предлагала единственное решение — снести мою БД. Рассказываю, как инженерное чутьё спасло проект от советов ИИ, и почему даже в 2025 году вайбкодинг не заменяет мозги.

продолжить чтение

Google выпустили Gemini 3 Flash — frontier-интеллект со скоростью Flash и ценой ниже рынка

Gemini 3 Flash — новая модель в линейке Gemini 3, которая сочетает Pro-уровень reasoning с минимальной задержкой и агрессивной оптимизацией по стоимости.

продолжить чтение

От пустой выдачи к релевантной: как мы оцениваем качество поиска через метрики, LLM и фидбэк пользователей

Привет, Хабр! Это Илья Красавцев и Артем Козак из команды ранжирования и поиска Lamoda Tech. Понять, насколько хорошо работает поиск, не так просто, как кажется. Здесь не поможет одна правильная метрика: поведение пользователей неоднозначно, запросы разнообразны, а контент постоянно меняется. Поэтому приходится копать глубже: анализировать метрики, использовать LLM и даже спрашивать самих пользователей. В этой статье мы расскажем, какие процессы выстроили для непрерывной оценки качества поиска в каталоге, и как с помощью них постоянно улучшаем систему.

продолжить чтение

Как на практике выглядит ИИ в банке: BNP Paribas ускоряет работу инвестбанкиров

продолжить чтение

Цифровой двойник за один JSON и без промптов

Наша полная когнитивная архитектура ENA - слоёный пирог: память, внутренние метрики, динамика состояний, контекст тела, история травм, цели, маски, защита, самосознание, вот это всё. Круто для корпораций, но сложно для обычных людей. Поэтому мы сделали то, что делают нормальные люди с задачами: взяли и срезали тонкий, но полезный слой. Только мышление. Только то, как человек: сам видит себя себя; принимает решения; относится к риску и ошибкам; каким тоном разговаривает и что для него табу.

продолжить чтение

Вайбкодим с плагином Kilo Code в VS Code и IntelliJ IDEA из России

В новой статье от команды AI for Devs разбираемся, как организовать вайб-кодинг с плагином Kilo Code в VS Code и IntelliJ IDEA из России. Пошагово настраиваем Kilo Code через RouterAI, подключаем Claude, GPT, DeepSeek и другие модели, разбираем роли агента, diff-патчи, правила проекта и нюансы работы с контекстом.В этой статье разберем плагин для вайб-кодинга Kilo Code. Плагин подходит для работы в VS Code, Cursor и IntelliJ IDEA (а также для всех производных IDE от JetBrains: PyCharm, WebStorm, PhpStorm, RubyMine, GoLand, Rider, CLion, DataGrip, Android Studio, GigaIDE и OpenIDE).Мы интегрируем инструмент Kilo Code с агрегатором моделей RouterAI

продолжить чтение

Как в звонках автоматически находить первые признаки выгорания операторов кол-центра

Привет, Хабр!

продолжить чтение

Запускаем LLM на iPhone локально — мой опыт с Gemma 2B

ВведениеДолгое время меня мучал вопрос - возможно ли запустить ИИшку у себя на телефоне, и если да, то какую. Я уверен, что об этом думали многие, но не понимали смысла, зачем тратить время на такого рода занятия. Чтож, я не выдержал и сделал мини-приложение, которое запускает Qwen / Gemma модель и общается с вами без доступа в интернет. Задачи минимум: 1. Развернуть модель ИИ у себя на iPhone2. Навайбкодить приложение, где можно общаться ИИ без доступа в интернет 3. Замерить потребление ресурсов моего iPhone во время работы с приложениемЧто получилось в итогеiPhoneLLM

продолжить чтение

В llama.cpp добавили функцию для динамического переключения моделей без перезагрузки сервера

Разработчики llama.cpp добавили поддержку router mode — режима, с помощью которого можно динамически загружать, выгружать и переключать несколько моделей без перезагрузки сервера. В блоге Hugging Face отмечают, что чаще всего пользователи просили реализовать именно эту функцию.

продолжить чтение

Rambler's Top100