llm. - страница 105

llm.

Новости кибербезопасности за неделю с 11 по 17 августа 2025

Всё самое интересное из мира кибербезопасности /** с моими комментариями.1) Сэм Альтман (OpenAI) в недавнем интервью

продолжить чтение

GPT-4o: последний взгляд

ОглавлениеЦель исследованияВспоминаем начальные условияНи одного вопроса — одни ответыКонфигурация подключения к PostgreSQL

продолжить чтение

Как заменить GitHub Copilot на полностью офлайн‑Continue Plugin

В этом посте я покажу, как использовать Continue Plugin вместо GitHub Copilot, подключив к нему собственную локальную модель LLM без доступа к интернету. Такой подход обеспечивает максимальную конфиденциальность: ни IDE, ни LM Studio не имеют возможности передавать ваши файлы в облако.Никакой сети – всё работает только в вашем компьютере. Что такое Continue и зачем он нуженПлагинФункцииКак работаетContinueГенерация кода, исправление ошибок, чат‑режим по коду

продолжить чтение

Инструмент непрямого управления

Прочитал с утра очередной пост на Хабре, как можно неправильно использовать LLM. Я отношусь к Моделям достаточно утилитарно - как к инструменту. Я не пытаюсь найти в них сознание, так как довольно хорошо представляю устройство вычислительной техники и то, как она выполняет программы. Поэтому каждая публикация с посылом "смотрите, Модель делает чушь" для меня сродни откровениям человека, попытавшегося вырезать ровный круг из оконного стекла при помощи молотка и получившего груду осколков в результате. Это очень короткая статья про то, чем отличаются молотки от LLM.

продолжить чтение

Свой LLM-агент на Typescript с использованием MCP

Вводные словаЕще в 2008 году, посмотрев фильм "Железный человек", я понял, что хочу сделать себе такого же виртуального помощника, как у главного героя был Джарвис — искуственный интеллект, с которым Тони Старк общался в формате обычной речи, а тот понимал его команды и послушно исполнял.

продолжить чтение

Legen… Wait, Wait… Dary! Разбираемся с рефлексией LLM

Хабр, привет! Меня зовут Андрей Галичин, я младший научный сотрудник группы «Доверенные и безопасные интеллектуальные системы» в Институте AIRI, инженер‑исследователь в лаборатории безопасного искусственного интеллекта SAIL AIRI‑МТУСИ, а также аспирант Сколтеха. Мы с коллегами занимаемся интерпретируемостью больших языковых моделей. В январе этого года, когда все обсуждали впечатляющие результаты новой рассуждающей языковой модели DeepSeek‑R1 (подробный разбор статьи от моего коллеги Антона Разжигаева можно найти здесь), мы задались вопросом:

продолжить чтение

GPT-4o vs YandexGPT: как мы отлаживали метрики в DeepEval из-за требований ИБ

Введение: Наш самый полезный багПривет, я Рамиль, QA-инженер в компании Raft. В своей работе я фокусируюсь на автоматизации тестирования, в том числе для LLM-решений, где часто использую связку Pytest и специализированных фреймворков. Эта статья — история из нашей недавней практики.Когда перед нами встала задача построить автоматизированную систему оценки (evaluation) для LLM-классификатора, который должен был сортировать запросы клиентов, выбор инструментов казался очевидным. Мы взяли DeepEval

продолжить чтение

Локальная LLM: гадкий утенок в мире прекрасных лебедей

Сравнительный анализ локальных и облачных LLMВсем привет! Я — Иван, инженер по разработке AI-систем CodeInside. Мы разрабатываем и внедряем кастомные AI-решения — от интеллектуальных поисковых систем на основе RAG до специализированных AI-агентов и ассистентов для автоматизации процессов в бизнесе и промышленности.

продолжить чтение

ИИ под контролем: Guardrails как щит от рисков в агентных системах

Вы когда-нибудь задавали вопрос AI-чатботу и получали в ответ что-то вроде: «Я не могу с этим помочь»

продолжить чтение

Как мы сделали AI-агента и пользуемся им на практике

Привет, Хабр! В последнем обновлении Explyt мы добавили AI-агента для написания кода. В этой статье расскажем, что он умеет и как мы сами его используем.

продолжить чтение

Rambler's Top100