llm.
Редакторы «Википедии» приняли политику «быстрого удаления» статей, созданных ИИ
«Википедия» официально утвердила
Анатомия памяти LLM: Почему будущее не за промптами, а за Инженерией Контекста
При работе с API больших языковых моделей я привык к определенной предсказуемости. Для моих исследовательских задач, экспериментов с кодом и повседневной рутины дневные расходы на API обычно колеблются в предсказуемом и комфортном диапазоне 3-4 евро. Это стало своего рода фоновым шумом, константой, на которую я перестал обращать внимание.Но в конце июля я увидел в биллинге Google API картину, которая заставила меня остановиться и задуматься. Вместо привычной цифры там красовалась аномалия — €51.
Все почти готово — осталось лишь чуть-чуть доделать
Эпохе LLM, обзоров от Gartner и вайбкодинга для MVP проектов от кодинг агентов посвящается. Вспомнил несколько случаев из своего опыта.В стародавние времена прошел я собеседование в одну ИТ компанию, которая делала информационную систему для поликлиник в нескольких регионах страны. Это место работы я даже не упоминал в своем резюме потом. Когда я спрашивал о текущем этапе проекта у директора, он "зуб давал", что там все почти готово, лишь осталось чуть-чуть доделать косметические правки за пару недель, а потом нанять команду, которую я буду возглавлять.
Консолидация памяти — или как избежать альцгеймера у LLM
Просыпаюсь утром, открываю свой чат с GPT, начинаю увлеченно обсуждать архитектуру нового проекта. Через час диалог превращается в философский трактат о смысле жизни, еще через час - в рецепт борща. И вот, когда я пытаюсь вернуться к архитектуре, модель смотрит на меня как на незнакомца: "А что за проект? Борщ, говорите?"Если очень коротко, у современных LLM есть одна маленькая
Как мы заставили LLM понимать юридические документы лучше юристов: история создания универсального промта
В прошлой статье
Распознавание текста на изображении и общение с распознанным текстом. Paddle OCR + LLM
Кадр из фильма двухсотлетний человекДанная статья описывает процесс создания проложения для распознавания текста на изображении и общения с распознанным текстом. Системные требованияЯзык: Python
Чат-боты и LLM в клиентском сервисе ЮMoney: от быстрой обработки запросов до LLM-прогнозирования оценок CSI
Рассказываем, как искусственный интеллект помогает нам оперативнее помогать пользователям и предсказывает, чего им не хватает в общении с нашей службой поддержки.
Как поднять локальную LLM за 5 минут
Кратко по терминамOllama — это инструмент, который позволяет запускать локальные LLM (как LLaMA, Mistral, Gemma и другие)LLaMA (Large Language Model Meta AI) — это серия открытых языковых моделей, разработанных компанией MetaOpenWebUI — это веб-интерфейс для Ollama, похожий на ChatGPT, но работающий с локальными моделямиТребования к ресурсамMemory 8+ GB CPU 4+ (лучше GPU) HDD 25+ GBУстановка Docker Enginehttps://docs.docker.com/engine/install/ubuntu
MCP — новый кирпичик в фундаменте AI-разработки
Model Context Protocol, расширяющий возможности AI в IDE, стремительно набирает популярность. Почему это происходит — и почему разработчикам стоит обратить на него внимание?Одна из горячих тем в области AI-кодинг-тулов и developer tooling — протокол MCP (Model Context Protocol), представленный Anthropic в ноябре 2024 года. Он стремительно набирает популярность: AI-модели и инструменты для разработчиков активно внедряют его.
Как мы в VK Tech построили технический радар для масштабной инженерной команды
Привет, Хабр! Меня зовут Александр Петрушин, я старший разработчик в VK Tech, и сегодня хочу рассказать о нашем опыте создания технического радара.

