llm. - страница 7

llm.

Большие модели, маленькие токены. ЛЛМ - битва за контекст (ч.1)

Когда я выкладывал первую главу этого цикла статей в свой телеграм-канал (@laxcity_lead), Anthropic только-только выпустили Agent Skills

продолжить чтение

Чему меня научили два месяца с легковесным локальным AI-агентом

Raspberry Pi на Mac mini - оба гоняют openLight, оба маленькие, оба всегда онлайн.Когда я писал первую статью на Хабр про openLight в марте

продолжить чтение

Миллион клодобезьян: естественный отбор вайбкодинга

На дворе май 2026 года, весь интернет заполнен статьями вида «Я запустил клод и написал свой аналог ОченьИзвестнойПрограммы». Вокруг бегают 100х девелоперы, которые на самом деле больше менеджеры, не имеющие отношения к нормальной разработке софта. Все удивительно продуктивны, гитхаб загибается от миллионов новых гениальных проектов и светлое будущее с косой уже стучится в каждый дом инженеров ПО.Однако, что-то все же не так. Особенно ощущение не так

продолжить чтение

Cобрать агента для XAI и никогда больше не быть онлайн

Привет, друзья! Я, похоже, наконец пережила кризис пришествия агентов в нашу жизнь. Мне всегда безумно нравился процесс решения задач — этакий личный, удивительный мир, даже когда ты уже знаешь правило Лопиталя/Modus ponens/выберите то, которое заставило вас смеяться больше всего при изучении. А теперь, чтобы не выпасть из жизни, задачи просто приходится решать с кем-то. И этот кто-то LLM-Agent.

продолжить чтение

Вайбкодинг — это гемблинг

Наблюдая за тем, как ИИ внедряется на работе и дома, я всё чаще ловлю себя на простой мысли: всё труднее писать код самому и всё больше хочется делегировать ИИ.Да ещё и провайдеры ИИ призывают тратить больше токенов, руководители всё чаще призывают команды активнее пользоваться ИИ. В соцсетях регулярно попадаются шуточные видео про то, как CEO предлагает потреблять токены ради самого потребления, а в медиа уже обсуждают tokenmaxxing: сотрудники и команды соревнуются в потреблении AI-токенов, а один инженер OpenAI, по данным New York Times

продолжить чтение

Хотел упростить мониторинг проектов и в отпуск — пришлось обучать свой LLM

Я работаю по ИП, поэтому не только пишу код, но и поддерживаю как DevOps свои проекты у заказчика. Эта история началась банально: я собирался в отпуск и хотел оптимизировать часть процессов, которые в повседневной жизни занимают время — чтобы не дёргать клиентов из-за вопросов по ошибкам, которые я мог не увидеть во время отдыха. Пусть локальная моделька сама разгребает типовое. Думал: запущу OpenClaw, подключу к локальной модели — и поеду спокойно

продолжить чтение

Хохма от Anthropic, или не используйте ИИ, чтобы попасть в ИИ‑компанию

В феврале 2025 года по техносфере разошлась маленькая, почти анекдотичная новость: Anthropic, компания, стоящая за Claude, просила кандидатов не использовать ИИ‑ассистентов при подаче заявки на работу. Не только инженеров. Маркетинг, финансы, продажи, коммуникации — почти все роли.

продолжить чтение

От ChatGPT к мультиагентному контент-пайплайну: как 5 AI-агентов пишут мне кейсы

Это не просто статья на Хабре. Это AI-сгенерированная статья на Хабре. Ха! Попались? Меня зовут Ксения Иванчикова, я развиваю медиа Generation AI. Еще год назад я писала умные промпты для ChatGPT в надежде получить глубокий и качественный контент — получалось так себе. Недавно я навайбкодила пайплайн из пяти AI-агентов: они берут 20-минутную запись доклада с YouTube, выдают готовый кейс и верстают контент на WordPress. Рассказываю про опыт создания контент-машинки, которая не делает нейрослоп. 

продолжить чтение

Корпоративная память против галлюцинаций: как RAG возвращает бизнесу здравый смысл

продолжить чтение

Opus 4.7 vs GPT-5 vs DeepSeek V4-Pro: три агента строят TSS-CLI на Rust

TL;DR24 апреля 2026 DeepSeek в режиме preview выкатил V4-Pro — MoE на 1.6T параметров (49B активных), 1M контекста. Появился повод посадить три флагманские модели за один и тот же не самый тривиальный таск и посмотреть, кто как справится. Задание общее, машина одна, час один, всё запускалось параллельно:МодельHarnessReasoning effortAnthropic Opus 4.7 (1M ctx)Claude Codex-highOpenAI GPT-5CodexhighDeepSeek V4-ProOpenCodehigh (max)

продолжить чтение

1...5678910...2030...236