llm.
Senior на бумаге, Junior в рантайме: как я тестировал локальные LLM на 120B параметров в Greenfield-проекте
Недавно я задался вопросом: можно ли организовать полноценный agent dev loop (то есть, цикл разработки агентов), используя только локальные модели? Идея заманчивая — гонять агента по задачам бесконечно, не оглядываясь на счета от OpenAI или Anthropic и не переживая за утечку кода.Чтобы проверить это, я выделил кластер и столкнул лбами три тяжеловеса из мира open source. Спойлер: архитектурно они все — Senior‑разработчики, но когда дело доходит до docker-compose up, начинаются проблемы.
Как я создал альтернативу трансформерам
В этой статье я хочу остановиться на разборе предложенной мной архитектуры декодера и тех вариантов, с которыми я сравниваю её в исследовании, но сделать это проще и интуитивнее, чем в самой работе. На мой взгляд, существующие объяснения архитектур декодеров часто подаются разрозненно. Каждый подход описывают отдельно, без общей опоры. А ведь всё можно свести к одному фундаменту, и тогда становятся гораздо заметнее как сильные стороны каждого решения, так и их ограничения. Для начала приведу все необходимые ссылки.Само исследование: https://arxiv.org/abs/2604.18580Код:
LLM бенчмарк «Испытание Дали»
Обложка нарисована в ChatGPT Image-2Помните анекдот?— Что вы умеете лучше всего? — Я очень быстро считаю. — Сколько будет 758×652÷9? — 22! — Но это же неправильно! — Зато очень быстро.
Новый LAMP, или почему ваш Agent Pipeline — это Apache в 2006 году
Помните LAMP? Linux, Apache, MySQL, PHP. 2006 год. Резюме сисадмина без LAMP не рассматривали. Курсы, сертификаты, форумы. Все учили стек. Мало кто спрашивал: а задачу-то как решать? Стек и есть решение. Поставил LAMP, залил WordPress, работает. Следующий.Откройте Хабр в 2026. “Собираем RAG на PHP за вечер.” “Оркестрация LLM через Redis.” “Agentic RAG Challenge.” “Multi-agent pipeline с LangChain.” На Coursera уже есть курс “Applied Agentic AI Pipelines”. Gartner фиксирует рост запросов по мультиагентным системам на 1445%.LangChain, RAG, VectorDB, Tool Calling. Новый LAMP.Все учат стек. Мало кто спрашивает: а задачу-то как решать?
Сэм Альтман: Anthropic использует для продвижения Claude Mythos маркетинг, основанный на страхе
Генеральный директор OpenAI раскритиковал
ChatGPT не промахнулся ни в одном из пяти медицинских кейсов. И всё равно проиграл. Разбираем, почему
TL;DRВ эксперимент мы шли с уверенностью, что ChatGPT хотя бы раз из пяти промахнётся с главным диагнозом. Не промахнулся. Пять из пяти: метаболический синдром, субклинический гипотиреоз, перименопауза, MGUS, статин-индуцированный рабдомиолиз. Ставка проиграна, но самое интересное оказалось не здесь.
Единая цена, Auto-режим и оркестрация: как Veai выбирает модель за вас
🔥 До конца майских — Auto со скидкой 60% по минутам. Почему все модели стоят одинаковоВ Veai нет тарифной сетки по моделям. Основная идея: разработчик должен выбирать модель исходя из качества и скорости работы, а не из стоимости запроса. Ценовой барьер между моделями искажает выбор — человек берёт «подешевле», даже когда задача требует другого.
Наглядный пример, зачем нужны агенты
Расскажу историю длиною в полгода на которой прекрасно прочувствовал все прелести современных инструментов и способов эксплуатации llm.
Почему Хомский неудобен для AI‑индустрии
О grammar constraints, валидном JSON и ошибочном понимании языкаКажется, что разговор о формальных грамматиках в LLM — это узкая инженерная тема для тех, кто заставляет модель соблюдать формат ответа. Но вокруг этого частного приема все чаще вырастает более сильный тезис: будто ограничение генерации не просто делает вывод надежнее, а подводит модель ближе к смыслу и даже к самой природе языка. Именно в этот момент технический разговор перестает быть только инженерным.

