llm. - страница 45

llm.

Агентная разработка в VS Code: Глубокая настройка RooCode для максимальной эффективности

ВведениеЭволюция инструментовНе так давно я публиковал статью об использовании Gemini для написания кода (или для эпохи LLM-копирайтинга это уже считается давно?) . В том эксперименте основным инструментом была веб-версия AI Studio. Это позволяло точно контролировать все детали работы с кодом: я оперировал участками кода и внимательно вчитывался, где какие замены нужно внести. Такой подход позволял вносить правки точечно, без нарушения целостности кода, но процесс доработки был крайне медленным.

продолжить чтение

OpenAI выпустила open source-инструменты для повышения безопасности ИИ-приложений для подростков

продолжить чтение

Open-source персистентная память для LLM

Последние полгода я занимаюсь задачей, которая поначалу казалась тривиальной: научить LLM помнить, с кем она разговаривает.Задача звучит просто. На практике — нет.Если вы строили чат-бот или AI-агента, вы знаете ощущение: пользователь написал, что он вегетарианец, а через три сообщения модель предлагает ему стейк-хаус. Или пациент сообщил об аллергии на пенициллин, а ассистент через час забыл и порекомендовал амоксициллин. В рамках одного контекстного окна всё работает. Но стоит начать новую сессию — чистый лист, модель не помнит ничего.Написал NGT Memory

продолжить чтение

Как ML изменит бизнес в 2026 году: прогноз Selectel, GlowByte и Data Sapience

продолжить чтение

6 часов писать паттерны вручную vs 1 минута с AI-агентом: как мы автоматизировали DSL

продолжить чтение

GigaChat-3.1: Большое обновление больших моделей

Салют, хабр!В ноябре мы выложили в open source preview-версии GigaChat-3-Ultra (702B MoE) и GigaChat-3-Lightning (10B MoE). С тех пор мы провели большую работу над нашими моделями, и сегодня выпускаем обновлённые GigaChat-3.1-Ultra и GigaChat-3.1-Lightning. По нашим замерам, Ultra обходит non-reasoning Qwen3-235B-A22B и DeepSeek-V3-0324 в математике и general reasoning, а Lightning на аренах с судьёй GPT-4.1 играет на уровне GPT-4o — при 1,8 млрд активных параметров. Модели, как и раньше, лежат на HuggingFace и GitVerse под MIT.

продолжить чтение

На Урале и в Сибири откроются первые студенческие лаборатории для обучения вайб-кодингу

продолжить чтение

Хайп закончился: российский бизнес массово сворачивает GenAI-проекты

продолжить чтение

Selectel запустил бесплатный курс по работе с ML-моделями

Привет, Хабр! Если вы планируете начать работу с ML-моделями, рекомендуем пройти бесплатный мини-курс Академии Selectel

продолжить чтение

OpenRouter запустил тестирование моделей генерации видео

https://openrouter.ai/models?fmt=cards&output_modalities=videoНа Openrouter впервые появились API трех моделей генерации видео. Пока только в "экспериментальном" режиме.

продолжить чтение