- BrainTools - https://www.braintools.ru -
В этом посте я покажу, как использовать Continue Plugin вместо GitHub Copilot, подключив к нему собственную локальную модель LLM без доступа к интернету. Такой подход обеспечивает максимальную конфиденциальность: ни IDE, ни LM Studio не имеют возможности передавать ваши файлы в облако.
Никакой сети – всё работает только в вашем компьютере.
|
Плагин |
Функции |
Как работает |
|---|---|---|
|
Continue |
Генерация кода, исправление ошибок, чат‑режим по коду |
Делает запросы к выбранному LLM‑провайдеру (в нашем случае – LM Studio) через HTTP/REST на |
Если вы используете GitHub Copilot, ваш код отправляется в облако.
Continue с локальной моделью никогда не покидает вашу машину.
Устанавливаем LMStudio с офф сайта [2].

Выберите Windows → скачайте LMStudio-<версия>-win64.exe.
Запустите установщик, следуйте мастеру:
Путь установки – любой удобный (рекомендуется C:Program FilesLM Studio).
Тип пользователя – выберите Developer (позволяет смотреть логи и управлять моделью).
Если вы случайно пропустили не переживайте эта плашка находится в левом нижнем углу.

Откройте LM Studio.
В строке поиска введите, например, Qwen-3.0-Coder-30B.
Убедитесь, что выбран формат GGUF (быстрее и легче).
Нажмите Download – модель скачается в LM Studiollms<название>.
В меню слева выберите Models → убедитесь, что галочка стоит рядом с вашей моделью.
Откройте Settings (иконка шестерёнки в правом нижнем углу).
Перейдите во вкладку LM Studio → Local Server.
Установите флажок Enable local server.
Запустите сервер, кликнув Start Server.
Порт по умолчанию: 5000.
Сохраните настройки.
Проверка работы сервера
Откройте браузер и введитеhttp://localhost:5000/v1/models[3] – вы увидите список доступных моделей.
В IDE откройте File → Settings (Ctrl+Alt+S).
Выберите Plugins → вкладка Marketplace.
В строке поиска напишите Continue.
Нажмите Install рядом с плагином (требуется VPN).
После установки перезапустите IDE.
Скачайте последнюю версию плагина: .
В Settings → Plugins нажмите Install plugin from disk…, выберите скачанный .jar.
Перезапустите IDE.
После успешной установки у нас появился дополнительный виджет в который мы переходим находится он в правом верхнем углу.
Кликните по иконке Llama 3.1 8B → откроется диалог Add Chat model.
Выберите Provider: LMStudio.
В поле Model выберите Autodetect (Continue сам определит, какие модели доступны через LM Studio).
Нажмите Connect.

После этого у вас сразу появится окно Config.yaml в котором вы можете устанавливать роли вашего ИИ будет ли он подсказывать вам при написании кода или просто будет в роли чата. Подробнее можно прочитать тут Документация для config.yaml [4]
После того как мы подключились к нашей LMStudio при нажатии на Llama 3.1 8B у нас появился список всех доступных скаченных моделей в LM.
Преимущество заключается в том что при выборе модели и выполнении первого запроса LMStudio сама проинициализирует и загрузит необходимую нам ИИ модель.
Теперь можно проверить работает ли наш ИИ пишем в окне справа текст и ждем ответа.

Отлично теперь можно проверить как отрабатывает ИИ в работе с кодом. Делается это путем команд:
|
Горячая клавиша |
Что делает |
|---|---|
|
|
Отправляет выделенный/текущий фрагмент кода на обработку (получает автодополнение, исправления). |
|
|
Копирует выбранный код в чат‑панель Continue для дальнейшего обсуждения. |
|
|
Открывает контекстное меню с предложениями от модели (если включена функция «Smart Completion»). |
Путем нажатием на кнопки или горячие клавиши вы можете подтверждать замену кода или отклонять предложенные варианты.
Так же присутствует вариант с дополнением кода, добавляется путем дополнения ролей в config.yaml
3) Полная изоляция от интернета
В Marketplace → Settings → HTTP Proxy
Выберите Manual proxy configuration:
Host name: 127.0.0.1
Port number: 5000 (порт, который слушает LM Studio)
В поле No proxy for укажите ваш локальный IP‑адрес (без префикса https).
Нажмите OK.
Теперь все запросы из IntelliJ проходят только через
localhost[1].
Блокировка LM Studio в Windows Firewall
Запустите Брандмауэр Защитника Windows → Дополнительные параметры.
В левой панели выберите Правила для исходящего подключения → Создать правило….
Укажите Для программы и нажмите Далее.
Введите путь к файлу LMStudio.exe (обычно C:Program FilesLM StudioLMStudio.exe) → Далее.
Отметьте Блокировать подключение → Далее.
Отметьте все три профиля: Доменные, Частные, Общедоступные → Далее.
Введите имя (например, “Блокировка исходящих подключений LM Studio”) → Готово.
Теперь исходящие соединения для LM Studio будут заблокированы.
Если хотите также запретить входящие подключения, создайте аналогичное правило в разделе Правила для входящего подключения.
Вы получили полностью офлайн‑среду автодополнения кода.
GitHub Copilot больше не нужен; все запросы идут только на localhost [1].
Конфиденциальность гарантирована: ни IDE, ни LM Studio не имеют доступа к внешним серверам.
Если вам нужна ещё более изолированная среда, просто перенесите всю конфигурацию (LM Studio + IntelliJ + Continue) в виртуальную машину или Docker‑контейнер без сети.
Автор: SergeyRoot
Источник [5]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/18423
URLs in this post:
[1] localhost: http://localhost
[2] офф сайта: https://lmstudio.ai/
[3] http://localhost:5000/v1/models: http://localhost:5000/v1/models
[4] Документация для config.yaml: https://docs.continue.dev/reference
[5] Источник: https://habr.com/ru/articles/938036/?utm_source=habrahabr&utm_medium=rss&utm_campaign=938036
Нажмите здесь для печати.