Навыки в OpenClaw: установка, создание и защита от вредоносных наборов
Я много раз наблюдал одну и ту же картину: кто-то устанавливает OpenClaw, запускает несколько задач, испытывает тот самый момент «ого!», а через два дня снова вручную присматривает за агентом, потому что тот постоянно уходит в сторону. Другие формулировки, другие шаги, другие допущения — но результат тот же. И это утомляет.Навыки работы с OpenClaw — это то, что превращает этот «дрейф» в нечто управляемое. Они не сделают агента идеальным — да и, если честно, идеал вам не нужен. Нужно предсказуемое поведение, чёткие границы и поменьше импровизации там, где она не к месту.Первое знакомство с системой навыков
Разбираем 14 самых популярных бенчмарков для LLM
Opus 4.5 набирает 80.6% на SWE-bench Verified. Opus 4 — 72.5%. Значит ли это, что Opus 4.5 лучше программирует, чем Opus 4?Ну... возможно. Но SWE-bench Verified это не показывает. Он показывает способность модели чинить небольшие баги в 12 популярных open source Python-репозиториях, которые почти наверняка входят в её обучающие данные. SWE-bench Verified не тестирует умение ориентироваться в вашем TypeScript-монорепо, Spring Boot-приложении или самописном ORM, на котором настоял предыдущий CTO.
Иллюзия логики: как я доказал, что LLM-агенты игнорируют факты, и почему Chain-of-Thought делает только хуже
Сейчас каждый второй стартап пилит ИИ-агентов. Мы оборачиваем LLM в цикл Промпт -> Вызов инструмента (API/Поиск) -> Чтение -> Ответ и ждем, что нейросеть сама расследует инцидент, найдет баг или напишет фичу. Но на практике автономные агенты часто ходят по кругу, галлюцинируют и застревают в бесконечных циклах.Индустрия пытается лечить это экстенсивно: наращивает контекстное окно до миллионов токенов или пишет в системном промпте заклинания вроде «подумай шаг за шагом и будь максимально объективен».
Как перестать использовать ИИ как чат-бота и начать автоматизировать рабочие процессы (Workflows)
Вспомните, что происходит после важной встречи с клиентом. Вам нужно:Вытащить итоговые задачи из заметок (action items)
После краха Sora Альтман переключается на ещё более разрушительную авантюру, чтобы похоронить OpenAI окончательно
Сэм Альтман не понимает технологии, не хочет понимать и считает, что ему это не нужно.
Мы заставили ИИ-модели торговать на бирже. И вот что из этого вышло
Могут ли языковые модели торговать на бирже — и не слить, а реально заработать? «Финам» завершил первый этап «Финам Арены
WACV 2026 в Тусоне: конференция, пустыня и немного экзистенции
Привет, Хабр! Я — Максим Куркин из лаборатории FusionBrain AIRI. Когда мне сказали «поедешь на WACV», первая мысль была — отлично, конференция. Вторая мысль — Тусон, Аризона. Пустыня Сонора. Кактусы‑сагуаро высотой с двухэтажный дом. +25°C в начале марта, когда в Москве ещё лежит снег. Круто!В итоге я провёл в командировке девять дней — с 5 по 13 марта. Два дня дороги в каждую сторону, пять дней конференции, немного пустыни вокруг. Поездка получилась насыщенной: и по науке, и по ощущениям, и очень хочется поделиться увиденным!
Как мы в CodeScoring модель для поиска секретов готовили
TLDR; За счёт новой модели удалось улучшить качество распознавания истинных секретов с 0.70 до 0.90 PR AUC.
Локальный ИИ: майнинг плата + 3 RTX 3090
В прошлый раз мы рассматривали локальный инференс на бюджетных ноутбуках, а потом я попытался запустить gpt-oss-120b на трех видеокартах. Протестировав модель в рабочих задачах, я понял что она может стать заменой облачным провайдерам. Однако, уже тогда стало понятно что десктопные материнские платы и корпуса не могут вместить в себя 3 RTX 3090. Поэтому я присмотрелся к майнерским решениям, где на материнских платах имеется большое количество PCI-слотов
