Выбор локальной LLM модели. Публикация на сайт с чатом
Исходный код, разобранный в данной статье, опубликован в этом репозиторииДля решения некоторых задач бизнес-требованием является запуск LLM модели локально на своём железе. Это связано с SJW цензурой, например, стандартный датасет для обучения Llama не позволяет вести консультации, носящие медицинский характер: рекомендовать лекарства, обсуждать носящую интимный характер медицинскую тайну с ИИ-терапевтом (см побочки антидепрессантов)
Model Context Protocol, обзор и практика
Общая схема работы системы с одним MCP-серверомОбщая информацияВ конце 2024г компания Anthropic, создатель LLM-моделей Claude, опубликовала стандарт Model Context Protocol и выпустила статью, посвящённую видению Anthropic того, как строить эффективные системы с AI-агентами: Building effective agents
Кибербезопасность по-умному: LLM-агенты без лишнего пафоса
Всем привет, меня зовут Артём Семенов, я являюсь автором Телеграм канала PWN AI. С момента релиза GPT 3.5 прошло больше 2ух лет. Это явление, я про распространение LLM, стало революционным во всех сферах, включая кибербезопасность. Модели стали применять для разных вещей. Например, использовать как дополнение к SAST, анализатор Vulnhunter
Что лучше — Биткойн или Tesla: используем агентов Autogen для анализа
Вы когда-нибудь задумывались, что лучше для инвестиций — NVidia или Tesla? Но что делать, если вам лень самостоятельно проводить анализ или вы даже не знаете, с чего начать?

