llm. - страница 26

llm.

Moltbot: 83 сценария использования open-source AI-агента

Бесплатный агент с 100K+ звёзд на GitHub, который реально выполняет задачи — не просто отвечает текстомДля нетерпеливыхЧто это: Moltbot (ex-Clawdbot, ex-OpenClaw) — open-source AI-агент, работающий 24/7 на вашем сервере.Отличие от ChatGPT: Это не чат-бот. Агент имеет доступ к инструментам (браузер, почта, API) и выполняет действия автономно.Стоимость:Сам агент: бесплатно (MIT лицензия)API для LLM: $25-150/мес (или бесплатно через локальные модели)В статье:

продолжить чтение

Генерируем SQL–запросы на локальных моделях

Привет, Хабр! На связи Фёдор Пахуров и Настя Изюмова. Мы команда внутренних инициативных сервисов ecom.tech. Занимаемся разработкой продуктов для внутренних нужд компании, экспериментируем с внутренними AI-продуктами для сотрудников: от забавных и полезных ботов до автоматизации повседневных задач. Сегодня мы расскажем, как помогли разгрузить аналитиков от их типовых задач с помощью искусственного интеллекта – внутри реальные кейсы, гайды и пошаговые инструкции на примере ecom.tech. Поехали!

продолжить чтение

Почему ничего нельзя вайбкодить — на примере Телеграм-бота

История успешных вайбкодеров напоминает истории успешного успеха: рассказываю о личном опыте, как мой друг вайбкодил бота под свой проект, и не смог, а сервис, который он пытался скопировать не делался за пару вечеров под сериальчик.

продолжить чтение

EMNLP 2025 глазами аналитика из Яндекса: мировые тренды и наши решения

продолжить чтение

«Позови оператора»

Всем привет! Я работаю в Сбере, в кластере Digital Sales & AI. Последние пару лет у нас, как и у всех, в фокусе работа с искусственным интеллектом. В прошлом году мы внедрили в СберБизнес Giga‑ассистента — ИИ‑помощника на базе GigaChat.

продолжить чтение

Добавил Claude к YandexGPT в анализатор договоров — нашёл в 2.5 раза больше рисков

Почему одной LLM недостаточно, как двухслойная валидация ловит ошибки модели, и сколько бизнес экономит на проверке договоров.Что было в первой версииПару недель назад я рассказывал, как построил модульную систему промптов для YandexGPT. 32 тематических промпта, детекторы паттернов, калибровка по рынку. Система работала, находила риски, но вылезли проблемы:Ложные срабатывания — LLM иногда «видела» асимметрию там, где её не былоПропуски — некоторые паттерны (типа «1% в день за невывоз») проскакивали мимоНет второго мнения

продолжить чтение

Шесть осей прогресса LLM: почему «данные закончились» — это заблуждение

TL;DR«Данные закончились» — это про одну ось из шести. Пять остальных работают. Одномерные прогнозы — мусор.Вот в чём проблемаЗайдите в любой айтишный-чат.«Из архитектуры выжали всё». «Данные закончились». «Модели будут деградировать».Звучит умно. Проблема? Это полная ерунда.Не потому что эти люди глупы. Часто это крутые разработчики. Проблема в том, что они видят одну ось — supervised pre-training на интернет-текстах — и думают, что это весь AI.Ось упёрлась? Значит, AI упёрся.Нет. Не значит.Давайте честно: одномерное мышление — это ловушка2012 год.

продолжить чтение

Как я пытался сжимать смыслы вместо байтов

Два часа ночи. Я пытаюсь впихнуть документацию проекта в контекст Claude. 847 страниц. Где-то 1.2 миллиона токенов. Контекстное окно — 200 тысяч.Делаю то, что делают все: режу, суммаризирую, выбрасываю «неважное». Каждый раз теряю что-то критичное. Это уже третий час, кофе кончился, и в голову приходит идея, которая кажется гениальной.Спойлер: она такой не была.

продолжить чтение

ИИ решил задачу Эрдёша — но есть нюанс

DeepMind прогнали своего агента Aletheia по 700 открытым задачам из списка Эрдёша. Результат: одна из них теперь закрыта — это вторая математическая проблема, решённая ИИ без участия человека. Теренс Тао уже обновил трекер.Но давайте на цифры. Агент вернул 212 «уверенных» ответов. После проверки людьми: — 137 (68,5%) — фундаментально ошибочны — 13 (6,5%) — реально решают то, что имел в виду ЭрдёшКаждый шестнадцатый. Остальное — галлюцинации или решение не той задачи.Авторы честно пишут: «Любой из этих вопросов мог бы легко решить нужный эксперт». Проблема не в сложности — до этих задач у людей просто не доходили руки 40 лет.

продолжить чтение

QAD от NVIDIA: разбираюсь, почему 4-битная квантизация перестала всё ломать

На прошлой неделе NVIDIA выложила отчёт про QAD и я его проигнорировал. Потому что каждый месяц кто-то "решает квантизацию" и каждый раз на практике всё не так радужно.Но потом коллега скинул табличку с AIME и я залип.Контекст такой. У нас на проде крутится модель на FP8, всё более-менее ок, но менеджмент хочет запихнуть 49B модель туда, где сейчас живёт 20B. Потому что "ну там же Blackwell, там же FP4, давайте". Я месяц назад попробовал наивно квантизовать в 4 бита — модель начала нести пургу на математике. Не сильно, но заметно. Закрыл тему, сказал что FP4 не готов.И тут этот отчёт.Что вообще происходит

продолжить чтение

Rambler's Top100