RAG-бот на YandexGPT без Python и оркестраторов. Кейс внедрения «Яндекс Агента» в медицине
Автоматизация клиентского сервиса в медицине — это всегда баланс между точностью данных и скоростью ответа. Рассказываем, как мы создавали для фармацевтической компании «Буарон» умного помощника на базе Yandex Cloud Agent, который обеспечивает круглосуточную обработку запросов и использует связку PHP и WordPress.
OpenAI начнёт показывать рекламу пользователям ChatGPT
В ближайшие недели OpenAI начнёт показывать рекламу всем пользователям бесплатной и Go-версий ChatGPT в США. Об этом сообщил представитель компании в электронном письме агентству Reuters.
НИУ ВШЭ — Санкт‑Петербург и Yandex Cloud создали чат‑бота для музеев
Лаборатория языковой конвергенции НИУ ВШЭ — Санкт‑Петербург и Центр технологий для общества Yandex Cloud разработали чат‑бота для взаимодействия с посетителями крупных музеев. Цифровой помощник помогает повысить вовлечённость аудитории.
Маленький LLM-чат на Python с Ollama и LiteLLM. Часть 2: делаем консольный чат
В первой части мы сделали самый важный стартовый шаг: подняли локальную модель через Ollama, подключили её к Python через LiteLLM и получили первый осмысленный ответ из кода.Но пока это ещё не чат. Наш main.py умел только одно: отправить один заранее заданный вопрос, вывести ответ и завершиться.Для учебного эксперимента этого достаточно. Для приложения — уже нет.Во второй части превратим этот одноразовый скрипт в маленький консольный чат
Из полезного ассистента в SupremacyAGI: почему чат-бот может внезапно стать психопатом
В феврале 2024 года один реддитор обнаружил
Маленький LLM-чат на Python с Ollama и LiteLLM. Часть 1: ставим окружение и пишем первый запрос
Во многих туториалах по LLM всё начинается с API-ключей, платных токенов и облачных сервисов. Это рабочий путь, но для первого знакомства он не самый удобный: нужно регистрироваться, разбираться с биллингом и постоянно помнить, что каждый эксперимент что-то стоит.Здесь пойдём проще. В этой серии мы соберём маленький LLM-чат на Python, который сначала будет работать локально: модель запускается через Ollama, а Python-код общается с ней через LiteLLM.Это хороший стартовый маршрут по трём причинам:не нужны API-ключи;не нужен интернет для каждого запроса;
Разработчик вместо заказа в Chipotle попросил чат-бота помочь с кодом
Пользователь Х поделился своим способом вайбкодить бесплатно, не используя платные подписки на Claude Code или подобные инструменты. Парень написал в чат-бот ресторана Chipotle и попросил перед заказом «помочь с задачей».

