ai.
MCP и будущее AI: что стоит знать сегодня, чтобы не отстать завтра
С тех пор как OpenAI внедрила функцию function calling в 2023 году, я всё чаще задумываюсь о том, что потребуется, чтобы по-настоящему разблокировать экосистему агентов и инструментов. По мере того как базовые модели становятся всё более интеллектуальными, возможности агентов взаимодействовать с внешними инструментами, данными и API всё больше фрагментируются: разработчики вынуждены реализовывать агентов с индивидуальной бизнес-логикой под каждую отдельную систему, в которой агент работает или с которой интегрируется.Очевидно, что необходим единый стандартный интерфейс для исполнения, извлечения данных и вызова инструментов.
За 15 минут установил Gemma 3 12B на Mac — было проще, чем с DeepSeek
Недавно решил покопаться в локальных языковых моделях и наткнулся на новинку от Google DeepMind — Gemma 3 12B. Модель мощная, с открытой лицензией и, что особенно порадовало, спокойно запускается прямо на ноутбуке. Без серверов, клаудов и трат на аренду GPU.Чтобы всё это заработало без плясок с настройками, я взял LM Studio — простой и удобный интерфейс для работы с LLM, который буквально делает «запустил и поехали».Я написал этот материал для блога Minervasoft
Забудьте про Hugging Face и CLI — ставим Gemma 3 12B за 15 минут
Недавно решил покопаться в локальных языковых моделях и наткнулся на новинку от Google DeepMind — Gemma 3 12B. Модель мощная, с открытой лицензией и, что особенно порадовало, спокойно запускается прямо на ноутбуке. Без серверов, клаудов и трат на аренду GPU.Чтобы всё это заработало без плясок с настройками, я взял LM Studio — простой и удобный интерфейс для работы с LLM, который буквально делает «запустил и поехали».Я написал этот материал для блога Minervasoft
15 минут — и у тебя свой LLM, который не утекает в облако и не стоит $20 в месяц
Недавно решил покопаться в локальных языковых моделях и наткнулся на новинку от Google DeepMind — Gemma 3 12B. Модель мощная, с открытой лицензией и, что особенно порадовало, спокойно запускается прямо на ноутбуке. Без серверов, клаудов и трат на аренду GPU.Чтобы всё это заработало без плясок с настройками, я взял LM Studio — простой и удобный интерфейс для работы с LLM, который буквально делает «запустил и поехали».Я написал этот материал для блога Minervasoft
15 минут — и у тебя бесплатная ИИ-модель для генерации кода, текста, чтения иллюстраций
Недавно решил покопаться в локальных языковых моделях и наткнулся на новинку от Google DeepMind — Gemma 3 12B. Модель мощная, с открытой лицензией и, что особенно порадовало, спокойно запускается прямо на ноутбуке. Без серверов, клаудов и трат на аренду GPU.Чтобы всё это заработало без плясок с настройками, я взял LM Studio — простой и удобный интерфейс для работы с LLM, который буквально делает «запустил и поехали».Я написал этот материал для блога Minervasoft
C каждой розетки про MCP, но давайте по-человечески
Предыстория: Последние месяцы Model Context Protocol (MCP) — буквально из каждого утюга. YouTube, Twitter, конференции, документации — все жужжат:«MCP это прорыв»,«Новый стандарт дебага»,«Интеграция AI в тесты нового поколения»...Звучит круто. Но, как часто бывает, всё сложно, перегружено и на птичьем языке. Я решил подойти с другой стороны. Это не мой, это ответ GPT, на понятном языке и с небольшими правками с моей стороны. Без заумных фраз, зато с примерами, мясом и аналогиями. Запрос был простым:Объясни по-пацански, что это вообще такое?Как это реально помогает, а не просто выглядит модно?
Character AI: что это, как пользоваться и создать своего виртуального персонажа
Искусственный интеллект уже давно вышел за пределы научной фантастики — сегодня он не просто существует, а активно взаимодействует с людьми. Одной из самых впечатляющих реализаций является Character AI — инструмент, позволяющий создать уникального бота-персонажа, способного вести живое общение, проявлять эмоции, адаптироваться под стиль пользователя и даже обучаться в процессе диалога. Но character ai что это на самом деле, как им пользоваться и зачем вообще создавать вымышленного собеседника — разбираемся по порядку.Что такое Character AI и что он умеетCharacter AI
Telegram AI Companion: веселый проект на Rust, Telegram и локальном ИИ
Привет, Хабр! 👋Недавно я собрал небольшой, но бодрый pet-проект — Telegram AI Companion. Это Telegram-бот, который умеет болтать с вами, используя локальную языковую модель через LocalAI. Без OpenAI, без облаков — всё на своём железе.Цель проекта — не революция в AI, а именно учебное и увлекательное погружение в Rust, асинхронность, Telegram API и локальные LLM-модели. Такой себе “бот-компаньон”, но больше для разработчика, чем пользователя :)Если вам интересно:Как соединить Telegram-бота с локальной LLMКак запускать Rust-проекты в DockerКак построить REST API и обрабатывать вебхуки
AI в повседневной жизни и работе: опыт продуктового дизайнера на примере реальных кейсов
Помимо рабочих задач, я веду еще несколько проектов и учусь на 4 курсе в универе. Чтобы быстро решать мелкие вопросы по всем этим направлениям, я использую ИИКакими проектами я занимаюсь вне работыЯ часто участвовала в хакатонах, поэтому смогла попасть в команду, которая уже несколько лет решает кейсы одним составом, просто добирает нужных специалистов. Сейчас в составе этой команды мы разрабатываем веб сервис в сфере EcoTech и пробуем получить различные гранты.
Русскоязычные LLM для вызова инструментов, переводов и финансовой аналитики
Предыдущая статья с подборкой моделей для русскогоdraw a cat which choosing LLM model

