llm. - страница 37

llm.

AI для умного дома: что уже работает сегодня (часть 1)

В статье — не просто список инструментов, а как они сочетаются, какие подводные камни ждут при развёртывании, какие цифры можно ожидать по производительности и как обойти ограничения Llama 8B без облачных кредитов.1. Ollama — локальные LLMOllama запускает большие языковые модели на вашем сервере. Без облака, без API-ключей.Зачем в умном доме: понимание естественного языка. «Включи свет в гостиной» → модель извлекает намерение и сущность, можно передать в HA.Ресурсы:

продолжить чтение

Вайбкодинг по Chess’ноку. 1. e4

От вайбкодинга к профессиональной ИИ-разработке на примере LanChess: 3300 промптов, 832 коммита, 100 тыс. строк кода и путь от POC к продакшен-сервису.По чесноку

продолжить чтение

Я не программист. Я два месяца учил нейросеть не подлизывать

Я не айтишник. Я технарь. Пять лет отслужил по контракту, после - вахты. В минус шестьдесят четыре чинил подъёмник каротажной станции, отогревал дизель пушкой, получал ожоги о холодный металл. На вахтах во время актировок начал ковырять Unreal Engine 5 - чтобы время убить. Домой привёз не только больную спину, которая ссыпается осколками позвонков в трусы, но и хобби.Нейросети я начал использовать в декабре 2025-го, когда понял, что с движком один не справлюсь. И первое, что меня взбесило - не галлюцинации. К вранью я привык, люди тоже врут. Взбесило другое.

продолжить чтение

Глухой телефон для ИИ: мы замерили физику LLM-графов и поняли, почему добавление агентов всё ломает

Сейчас, в 2026 году, индустрия ИИ переживает бум мультиагентных систем. Все собирают свои «рои», фреймворки и crew-команды. Логика проста: если одна LLM умная, давайте свяжем десять, дадим им роли, и они свернут горы.Но на практике мы часто сталкиваемся с магией черного ящика. Иногда 10 агентов действительно решают сложную задачу. А иногда они скатываются в бесконечные галлюцинации, теряют изначальный контекст и выдают результат хуже, чем базовая модель соло. И индустрия решает эту проблему в стиле алхимиков: «просто добавьте еще агентов» или «дайте им больше токенов на общение».

продолжить чтение

Как продакт без тех. бэкграунда запустил два продукта за неделю: стек, флоу и MCP под капотом

Дисклеймер: я продакт, не разработчик. Тех. бэкграунд — теоретический. Эта статья про то, как выглядит вайб-кодинг глазами PM и что реально работает, а не что обещает маркетинг. Контекст и проблемаУ большинства продактов, которые хотят запустить что-то своё, есть один и тот же потолок: нет команды → нет продукта. Найм, онбординг, выстраивание процессов, ожидание первых релизов — это месяцы и деньги ещё до первой проверки гипотезы.Последнюю неделю я тестировал, насколько этот потолок реален в 2025 году. Результат — два живых проекта:личный сайт по продуктовому консалтингу

продолжить чтение

Как меняются метрики контроля при переходе от чат‑ботов к агентным системам

Переход от простых чат‑ботов к автономным агентным системам требует новых метрик контроля и понимания, насколько эффективно агенты взаимодействуют друг с другом и насколько точно они используют внешние инструменты.Почему старые подходы ломаютсяКогда у нас не один LLM‑чат, а целая группа агентов, которые сами вызывают функции и общаются между собой, старые методы оценки не работают. Нужно измерять две вещи: синергию (помогают ли агенты друг другу решить задачу или просто гоняют токены по кругу);

продолжить чтение

Почему «база знаний в продукте» – это не Wikipedia, а политика доверия

Спросили в чате: «сколько мне спать / есть белка / бегать в неделю». Модель ответила ровно и быстро. Пользователь закрыл вкладку довольный. Через несколько дней эта же цифра оказалась в разговоре с врачом или в строке таблицы с расходами. Вопрос уже не «удобно ли в интерфейсе», а другой: кто в этой цепочке сказал «да, мы это утверждаем»?Wikipedia и прочие открытые базы отвечают на вопрос «что люди вообще накопили про тему». Продукт отвечает иначе: что мы готовы произнести от имени сервиса

продолжить чтение

Исследователи Кембриджа доказали, что вашей статьи не существует

СРОЧНО. Исследователи из Отдела предиктивных реконструкций (Department of Predictive Reconstructions) Королевского колледжа Кембриджа (King’s College Cambridge) доказали, что любой письменный текст можно свести к минимальному генеративному промпту и восстановить с семантической достоверностью 98%. Редакция получила доступ к препубликационному черновику. Рынки реагируют. Подробности ниже.Как это работает

продолжить чтение

Luminarys AI: платформа AI-агентов с изолированными навыками и кластеризацией

Luminarys AIМодульная платформа для запуска AI-агентов, где каждый навык работает в WebAssembly-песочнице, агенты масштабируются на кластер из разнородных машин, а навыки пишутся на Go, Rust или AssemblyScript.Привет, Хабр.

продолжить чтение

Anthropic проверяли, не задумал ли их ИИ чего плохого. Ответ — почти нет

Где-то в недрах Anthropic сидят люди, чья работа - выяснить, не пытается ли их самая умная модель тихо сломать мир. Они выпустили 53-страничный отчёт о том, как искали зло в Claude Opus 4.6. Anthropic взяли Claude Opus 4.6 - модель, которая уже вовсю пишет код на их собственной инфраструктуре, генерирует данные для обучения, помогает проводить исследования - и попытались доказать, что она не способна их подставить. Исследование охватывает восемь конкретных путей к катастрофе: от тихого саботажа научных результатов до самостоятельной эксфильтрации весов модели на внешний сервер.

продолжить чтение