llm. - страница 165

llm.

Чат-бот с LLM в облаке: опыт Новосибирского государственного университета и инструкция по запуску

Сейчас мало кого удивишь чат-ботом в Telegram, даже если он на базе LLM. Но, согласитесь, таким умным решением может похвастаться не каждый университет.На связи Роман Дерунец и Иван Бондаренко (@bond005) — научные сотрудники лаборатории прикладных цифровых технологий механико-математического факультета НГУ. В статье поделимся опытом разработки нашего университетского чат-бота: расскажем, зачем он понадобился НГУ, почему мы решили создать его с нуля и что важно знать тем, кто хочет такой же. А еще — поделимся инструкцией, как запустить похожее решение в облаке.

продолжить чтение

Cache-Augmented Generation против RAG: как ускорить инференс без потери качества

продолжить чтение

Как работает память в LLM и почему вы не обучаете ChatGPT своим prompt

продолжить чтение

А вы храните историю запросов к ИИ-агентам?

Лично мне нравится LLM как инструмент, усиливающий мои интеллектуальные возможности. Я использую его ежедневно — для поиска информации, для создания и перевода текстов, в качестве ассистента по подсчёту калорий и, само собой, для разработки приложений. Немного попрактиковавшись с генерацией pull request'ов через OpenAI Codex для модулей своего проекта TeqCMS, я пришёл к выводу, что в "грядущую эпоху вытеснения разработчиков моделями

продолжить чтение

Запускаем личный АИ-инфоконвейер: как я строю систему смыслового мониторинга с YAML и GPT

Отслеживаем новости, документы и тендерыRostral.io размышляет над ответом вместо вас

продолжить чтение

Запустили векторный поиск в YDB: рассказываем, как он работает

В новой версии YDB

продолжить чтение

ИИ-инструменты замедляют опытных разработчиков: результаты исследования METR

Разработчики работали на 19% медленнее с ИИ, чем без него, хотя сами они считали, что ускорились на 20%.

продолжить чтение

Документация для AI: практические принципы разработки

Всем привет! Меня зовут Александр, я COO в SaaS-платформе аналитики данных. Последний год активно изучаю внедрение AI-решений в кросс-функциональные процессы. Делюсь полезными материалами, которые считаю стоят внимания. В основном про AI, изменение процессов, тренды и продуктовое видение.У себя в телеграм-канале делюсь сжатыми и структурированными саммери статей.Сегодняшний перевод отличного гайда по документации для AI от kapa.ai (AI-ассистент для технической документации).

продолжить чтение

Vibe Coding: Заглянем под капот Claude Code. Часть 1

В этой статье мы погрузимся во внутреннее устройство Claude Code - Coding агента от Anthropic. Мы проанализируем его с точки зрения архитектуры, рассмотрим доступные инструменты и разберем системные промпты, которые определяют его поведение. Я заменил его стандартную модель claude на GPT-4.1, что позволило мне детально проанализировать логи, архитектуру и системные промпты, определяющие его поведение.

продолжить чтение

Kimi-K2 — следующий этап развития искусственного интеллекта в Китае после Deepseek

Компания Moonshot AI из Китая выпустила Kimi-K2 — новую большую языковую модель с открытым исходным кодом, которая призвана составить конкуренцию ведущим проприетарным моделям, таким как Claude Sonnet 4 и GPT-4.1, без специального модуля логического вывода. Это событие напоминает выпуск Deepseek.

продолжить чтение