ai assistant. - страница 2

MCP: новая игра на рынке искусственного интеллекта

Всё, что нужно знать о Model Context Protocol (MCP)«Даже самые продвинутые модели ограничены своей изоляцией от данных — они заперты в информационных силосах и легаси-системах». — Anthropic о важности интеграции контекста

продолжить чтение

Обновление JetBrains AI: новый тариф, поддержка MCP и поиск в Интернете

Разработчики JetBrains представили обновление фирменного нейросетевого помощника. Появилась поддержка MCP, возможность искать информацию в Интернете прямо в IDE, редактировать сразу несколько файлов. Также ассистент теперь входит в подписки All Products Pack и dotUltimate.

продолжить чтение

«Клюква» — автоматизация документации проектов на Python

Привет! Меня зовут Алексей Фоменко. Я разработчик из Нижнего Новгорода.Сегодня хочу рассказать вам о своем сервисе "Клюква".Почему "Клюква" и "автоматизация документации"? Ответ на самом деле простой — потому что мне это название нравится.

продолжить чтение

Исследуем возможности ИИ писать код. Часть 1

ОглавлениеМетодологияКлод: начало путиЧто важно указать в промпте?Ошибки, исправления и первый Pull Request

продолжить чтение

Как использовать Cline и Roo Code в качестве AI-ассистента для кода?

Почти год назад мы рассмотрели подборку AI-ассистентов для кода, сегодня же мне хотелось бы сосредоточить внимание на одном конкретном, а именно — Cline, номер 1 на OpenRouter. Предлагаю вместе пробежаться по настройке и интеграции, а также использовании Cline в качестве ИИ-ассистента. *А также мы поговорим про Roo Code — форке Cline, но совсем немного, поскольку они идентичны в настройке и функционале.Приятного прочтения!Что это?Cline

продолжить чтение

В JetBrains AI Assistant добавили поддержку локальных моделей через LM Studio

JetBrains сообщила разработчикам, что нейросетевой помощник AI Assistant теперь поддерживает интеграцию локальных языковых моделей через LM Studio. Помимо этого компания добавила новые нейросети от OpenAI и Anthropic.В ноябре 2024 года JetBrains добавили возможность подключать к AI Assistant локальные языковые модели с помощью Ollama. Это даёт большое преимущество для пользователей, которым важна приватность, но не всем может быть удобно пользоваться Ollama. Теперь локальные модели можно подключать и через LM Studio.

продолжить чтение

12