gpt.
Я посадил AI-агента на свой VPS и перестал открывать SSH
Суббота, 11 вечера. Я в гостях, телефон в кармане. Приходит алерт от Grafana: «память на сервере 92%». Раньше сценарий был такой: достать ноутбук (если взял), подключиться через SSH, вспомнить, какой контейнер жрёт память, попробовать docker stats, найти проблему, решить. Если ноутбука нет — открыть Termius на телефоне, набирать команды на экранной клавиатуре и молиться, чтобы не опечататься в rm -rf.Сейчас я пишу в Telegram: «память 92%, разберись». Через минуту агент отвечает: контейнер с логами разросся до 3 ГБ, он уже почистил старые логи и рестартнул его, сейчас 54%. Я убираю телефон и возвращаюсь к разговору.
Один скилл, четыре модели — что может пойти не так
На GitHub лежат сотни AI-скиллов. Скилл для code review, скилл для дебага, скилл для обработки PDF, скилл для анализа безопасности. Установил в Cursor или Claude Code — и твой AI-ассистент стал умнее. Звучит как npm install: поставил пакет, он работает.Но скилл — не пакет. Это текстовый файл с инструкциями, который читает языковая модель. А модели читают по-разному.
Локальный ИИ: майнинг плата + 3 RTX 3090
В прошлый раз мы рассматривали локальный инференс на бюджетных ноутбуках, а потом я попытался запустить gpt-oss-120b на трех видеокартах. Протестировав модель в рабочих задачах, я понял что она может стать заменой облачным провайдерам. Однако, уже тогда стало понятно что десктопные материнские платы и корпуса не могут вместить в себя 3 RTX 3090. Поэтому я присмотрелся к майнерским решениям, где на материнских платах имеется большое количество PCI-слотов
Десятилетняя вражда, формирующая будущее ИИ
Личные обиды и борьба за власть между руководителями OpenAI и Anthropic определяют, как именно мир знакомится с этой технологией
Как получать fan-out запросы GPT через OpenAI API: практическое руководство для SEO-специалистов
Привет! Меня зовут Андрей Попов, я SEO-специалист в AGIMA. SEO быстро меняется. Если раньше мы оптимизировали сайты исключительно под поисковые системы, то сегодня всё больше внимания приходится уделять алгоритмам искусственного интеллекта, которые самостоятельно собирают и анализируют информацию в интернете.Когда пользователь задает вопрос AI-модели, например GPT, она редко ограничивается одним поисковым запросом. Вместо этого система генерирует целый набор дополнительных запросов — именно они и называются fan-out queries
Как металлообрабатывающий завод ускорил выполнение задач в 3 раза с помощью Кайтена и ChatGPT
Раньше руководитель тратил больше 30 минут, чтобы поставить задачи команде после ежедневной планерки. Теперь — один запрос к ИИ-ассистенту, и 30+ карточек автоматически создаются, заполняются и распределяются по исполнителям за 3 минуты. Это результат внедрения Кайтена на металлообрабатывающем заводе ПФ-ФОРУМ.Как процесс устроен изнутри — рассказывает Марина Вербицкая, руководитель отделения по работе с публикой и интегратор цифровых решений.Но сначала — несколько фактов о компанииПФ-ФОРУМ
Галлюцинации LLM — это артефакты сжатия. И это объясняет вообще всё
Представьте, что вам дают 10 терабайт текста и говорят запихнуть это в файл на 70 гигабайт. Да так, чтобы потом по любому вопросу можно было восстановить нужный кусок. Не точно, но близко, и не побайтово, но чтобы по смыслу билось.Вы бы сказали: «так это же lossy-компрессия, часть данных неизбежно потеряется».И были бы правы, потому что именно это делает LLM.Предсказание = сжатие (и это не метафора)Тут нужно кое-что объяснить, и это самое важное в статье.Клод Шеннон доказал в 1948 году: предсказание следующего символа и сжатие данных — математически одно и то же
Ну когда уже мы перестанем писать код???
В этой статье я разберу, что сейчас происходит на поприще нейронок. Что творится в индустрии и что будет дальше с нами, с нашими зарплатами и вообще со всем ИТ.Стоит ли нам бояться, стоит ли ждать замены уже не только джунов и мидлов (коих уже заменяют), но и серьёзных дяденек-синьоров.Может надо не простоя бояться? А надо бить в набат и бегать на голове? Правда ли, что индустрию перевернёт в ближайшие полгода-год так, что поменяется абсолютно всё, перетряхнёт каждого. Или не все так однозначно? Что вообще происходит и к чему готовиться. Давайте разбираться.
Долой иерархию и роли: о том, как LLM-агенты самоорганизуются лучше, чем мы их проектируем (только на сильных моделях)
Хабр, привет! Меня зовут Вика Дочкина, я работаю в Сбере и пишу диссертацию на тему автономных AI-систем.Роли, отделы, департаменты, иерархии, должностные инструкции, процессы — всё это придумано для людей. Для нас: с одной специализацией (реже - несколькими), 8 часами продуктивности в день, невозможностью удержать в голове контекст всей организации и месяцами на смену профессии.У LLM-агента ни одного из этих ограничений нет. Он мгновенно меняет специализацию. Он видит полный контекст. Он не потребляет ресурсы, когда не работает. Зачем тогда переносить на него человеческую оргструктуру?
Мы протестировали 22 нейросети на задачах для российских учителей. Ни одна не знает чувашский
Я живу в Чебоксарах и запускаю ИИ-пилот в местной школе. Когда понадобилось проверить, какие LLM действительно способны помочь российским учителям в их работе — оказалось, что бенчмарка для этого не существует. MERA тестирует, может ли модель решить задания ЕГЭ. EduBench — только английский и китайский. Российское образование — это ФГОС, технологические карты уроков, ОГЭ, чувашский язык — и ничего из этого ни один бенчмарк не покрывает.Мы сделали EduBench-RU — первый бенчмарк для оценки LLM на задачах российского образования в школах. 50 промптов, 22 модели, двойная оценка. И нашли кое-что неожиданное.Что внутри

