llm.
Я просил Claude перестать мне льстить. 16 апреля получил. Беру свои слова назад
16 апреля Anthropic выкатила Claude Opus 4.7. На self-reported бенчмарках - 12 побед из 14. SWE-bench Verified +6.8, MCP-Atlas +14.6, SWE-bench Pro +10.9. Цена та же, 25 за миллион токенов.Через 24 часа
OpenWebUI: System Prompt vs Skills vs MCP Tools — разбираем на живом примере валидации URL
Автор: Александр Казанцев, руководитель отдела документации и контентаВ последних версиях OpenWebUI появились Skils, и я решил сразу же их «пристроить» в дело. Одной из задач их применения виделась валидация ссылок, которые чат-бот техподдержки отдает в своем ответе: модель должна отвечать на вопросы по документации, строить корректные ссылки на статьи и не выдумывать несуществующие эндпоинты и URL. AI-платформаГотовые серверы с LLM и инструментами для ИИ и машинного обучения. Узнать больше
Манифест устойчивого ИИ: не более умные ассистенты, а новая форма цифрового существования
Я предлагаю смотреть на ИИ через ось устойчивости во времени, а не способностей. Три опоры — непрерывная идентичность, самомодификация, воспроизводство. Манифест и whitepaper исследовательского направления.Уже три года публичный разговор об ИИ крутится вокруг оси способности: насколько умна модель, сколько токенов, сколько бенчмарков. Я предлагаю смотреть на другую ось — устойчивость во времени.
Средние модели, большие надежды: испытываем гибридные LLM
Привет, я Дмитрий, занимаюсь развитием LLMaaS. Перед нашей командой встала задача подбора «средней» языковой модели с примерно 9B параметров для обслуживания клиентских задач: оперативные чат-боты, саммаризация документов, генерация кода и аналитика на длинных контекстах. В таких сценариях критичны не только качество ответов, но и скорость, и стоимость инференса — ведь модель должна работать на одном GPU и при этом выдерживать заданный поток запросов.
10 актуальных RAG-подходов: какие реально полезны и когда их применять?
Всем привет, на фоне обновлений в LLM-стеке за последний год, решил собрать практический список RAG-подходов, которые реально используются в продакшене на основе моего опыта и того что я изучал в других кейсах.
Жизнь сквозь призму LLM. Часть 1 — почему мы будем платить не за сервис, а за доступ к мышлению
Разговор про большие языковые модели до сих пор слишком часто ведётся по одной из двух схем. Либо восторг: «смотрите, нейросеть уже пишет код и тексты», либо скепсис: «она всё равно галлюцинирует». Ни то, ни другое уже не отражает масштаб происходящего.Всем привет! Меня зовут Дмитрий Фырнин, я управляющий партнёр и технический директор в SENSE, и собрал серию материалов-рассуждений о том, как LLM меняют нашу жизнь — а где-то уже изменили — на уровне среды, в которой мы работаем и принимаем решения.
Пишем прототип ИИ-агента для EdTech-саппорта без векторных баз и фреймворков: чистый Python, Gemini и JSON
Введение: проблематика задачиУ любого EdTech продукта есть проблема поддержки студентов. Я и сам столкнулся с ней в мою бытность автором курсов на степик. Студенты сталкиваются с трудностями и пишут в чат / на форум в надежде, что им помогут (особенно, если они заплатили за обучение свои кровные).Традиционный способ решения данной проблемы - куратор. Это человек, достаточно хорошо разбирающийся в предмете и структуре курса, задача которого отвечать на такие вопросы студентов. Если проект небольшой, то куратором может выступать сам автор курса.
Книга: «Эффективный разговорный ИИ. Создаем чат-ботов, которые действительно работают»
Привет, Хаброжители!
Все ведущие LLM провалили первый бенчмарк по киберзащите. Что это значит для SOC
Simbian Research опубликовала Cyber Defense Benchmark – первую методику, которая проверяет, способна ли LLM автономно искать атакующего в реальной телеметрии. Ни одна из 11 фронтирных моделей не набрала проходного балла. Пока AI заметно сильнее помогает атакующим, чем защищающимся, единственный рабочий ответ для корпоративной сети – эшелонированная оборона, микросегментация и ZTNA.Что произошло28 апреля 2026 года Simbian Research опубликовала

