Юнит тесты роя агентов
Исходный код, разобранный в статье, опубликован в этом репозиторииПри разработке роя агентов встает вопрос юнит тестирования. Рой агентов позволяет использовать разные LLM с выбором другой активной модели исходя из действий пользователя. Как следствие, обрабатывать идентичную переписку может любой агент из роя, например, был сделан Redis FLUSHALL и активный агент потерялся: чат продолжается с корневого Triage agent
Пробуем Junie от JetBrains на реальной задаче (или как я попал в рассказ Азимова)
JetBrains зарелизил новую версию своего AI-ассистента — и вместе с ним Junie, автономного нейросетевого агента-программиста, которому можно поручать небольшие рабочие задачи.Буквально вчера я получил к нему доступ и не смог не воспользоваться возможностью. Я даже не представлял, насколько это весело.Мой опыт с ИИ в разработкеЕсли не считать чаты ChatGPT и DeepSeek, из ИИ-помощников я пользовался Copilot в WebStorm на GPT-4o / Claude и, честно говоря, не был сильно доволен:авто-подсказки, на мой взгляд, не сильно лучше, чем встроенные в IDE;доступ к коду не сильно помогает ему отвечать на вопросы через чат;
Fine tuning или RAG. Что выбрать?
При разработке ИИ чатов существует два способа интеграции внешних данных: RAG хранилища и Fine tuning. Для не технаря отличия не очевидны, я столкнулся с мнением менеджера проекта, что первое это новая версия второго. Это не так. Поэтому, я сделал short summary, чтобы по существу изложить плюсы и минусы двух решенийЧто такое RAG?Языковые модели умеют запускать python/javascript функции через tool_calls. Делается такая функция, ей на вход аргумент search
Fine tuning роя агентов
Исходный код, разобранный в статье, опубликован в этом репозиторииВ вакансиях LLM инженеров присутствует слово RAG. Это подразумевает интеграцию во внешнюю базу данных, например, PostgreSQL с PGVector или MongoDB Atlas Vector Search.
Разработка AI‑приложений с Effect
Интеграция с крупными языковыми моделями (LLMs) стала неотъемлемой частью разработки современных приложений. Независимо от того, создаёте ли вы контент, анализируете данные или разрабатываете интерфейсы для общения с пользователем, добавление возможностей, основанных на AI, имеет потенциал как расширить функциональность вашего продукта, так и улучшить пользовательский опыт.
Балансировка нагрузки LLM через Nginx
Исходный код, разобранный в статье, опубликован в этом репозиторииВ интернете существует множество примеров, которые позволяют подключить ChatGPT 3.5 без инструментов к телеграм боту. Однако, когда речь заходит о большом количестве пользователей, не существуют примеров распределения нагрузки по нескольким процессам: все туториалы в интернете запускают монолит с одной репликой
Применение роя агентов в криптовалютном телеграм боте
Исходный код, разобранный в статье, опубликован в этом репозиторииOpenAI развивает технологию роя агентов искусственного интеллекта, активная LLM модель переключается исходя из контекста поставленной задачи. Например, когда холодный контакт написал в личку телеграм, общение идёт приветливо и многословно, как только речь идет непосредственно о покупке товара, другая модель говорит минимально по делу
На сколько Ollama готова для Production?
Некоторое время назад я был в восторге от Ollama: простое скачивание моделей одной консольной командой, наличие SDK для NodeJS и Python, OpenAI-подобное API. Однако, так как отрасль рынка активно развивается, инструмент с каждым днем становится менее конкурентноспособнымПроблемы OllamaПункты ниже заставят вас задуматься рассмотреть другой инструмент запуска GGUF, например: LMStudio, LocalAI, KoboldCPP, vLLM или llama-server
Cohere Command — революция, которую мы пропустили
Исходный код, разобранный в данной статье, опубликован в этом репозиторииДлительный промежуток времени я искал модель, специально заточенную под вызов инструментов для внешних интегираций. Критерием поиска являлось минамальное колличество галлюцинаций при использовании железа с потребительского рынка
Оркестрация чатов LLM моделей через Redis
Исходный код, разобранный в данной статье, опубликован в этом репозитории При работе с языковыми моделями частым явлением являются галлюцинации - когда модель даёт неверных вывод. Это связано с издержками математической модели, которая пораждает важные нюансы, разобранные в данной статье

