MCP: новая игра на рынке искусственного интеллекта
Всё, что нужно знать о Model Context Protocol (MCP)«Даже самые продвинутые модели ограничены своей изоляцией от данных — они заперты в информационных силосах и легаси-системах». — Anthropic о важности интеграции контекста
Обновление JetBrains AI: новый тариф, поддержка MCP и поиск в Интернете
Разработчики JetBrains представили обновление фирменного нейросетевого помощника. Появилась поддержка MCP, возможность искать информацию в Интернете прямо в IDE, редактировать сразу несколько файлов. Также ассистент теперь входит в подписки All Products Pack и dotUltimate.
«Клюква» — автоматизация документации проектов на Python
Привет! Меня зовут Алексей Фоменко. Я разработчик из Нижнего Новгорода.Сегодня хочу рассказать вам о своем сервисе "Клюква".Почему "Клюква" и "автоматизация документации"? Ответ на самом деле простой — потому что мне это название нравится.
Исследуем возможности ИИ писать код. Часть 1
ОглавлениеМетодологияКлод: начало путиЧто важно указать в промпте?Ошибки, исправления и первый Pull Request
Как использовать Cline и Roo Code в качестве AI-ассистента для кода?
Почти год назад мы рассмотрели подборку AI-ассистентов для кода, сегодня же мне хотелось бы сосредоточить внимание на одном конкретном, а именно — Cline, номер 1 на OpenRouter. Предлагаю вместе пробежаться по настройке и интеграции, а также использовании Cline в качестве ИИ-ассистента. *А также мы поговорим про Roo Code — форке Cline, но совсем немного, поскольку они идентичны в настройке и функционале.Приятного прочтения!Что это?Cline
В JetBrains AI Assistant добавили поддержку локальных моделей через LM Studio
JetBrains сообщила разработчикам, что нейросетевой помощник AI Assistant теперь поддерживает интеграцию локальных языковых моделей через LM Studio. Помимо этого компания добавила новые нейросети от OpenAI и Anthropic.В ноябре 2024 года JetBrains добавили возможность подключать к AI Assistant локальные языковые модели с помощью Ollama. Это даёт большое преимущество для пользователей, которым важна приватность, но не всем может быть удобно пользоваться Ollama. Теперь локальные модели можно подключать и через LM Studio.

