Что тренд грядущий нам готовит: как Netflix меняет правила игры в киноиндустрии на примере отчета Still Watching 2025
Привет! Меня зовут Алиса, и я преподаю писательское мастерство. Немного с опозданием, но все же прочитала отчет Netflix Still Watching 2025 про то, как мы смотрим стриминг. Меня зацепил этот отчет, и я захотела копнуть глубже и узнать, почему наши истории работают иначе, чем десять лет назад, и как именно «Нетфликс» это использует.
Локальные LLM на слабом железе — что ставить, как запустить, чего ждать
Три года назад запустить 7-миллиардную модель локально означало профессиональный GPU. Потом появилась квантизация - сжатие весов с 32-битной точности до 4-битной. Модель стала в 3-4 раза легче при минимальной потере качества. 7B параметров теперь занимают 4-5 ГБ вместо 14.Параллельно с этим появилась Ollama - инструмент, который убирает всё лишнее между пользователем и моделью. Устанавливается одной командой, сама находит GPU если она есть (NVIDIA, AMD, Apple Metal), при отсутствии - работает на CPU. Модели качаются как докер-образы, запускаются одной строкой. Да, и никакой ручной настройки окружений.Установка Ollama и моделей
Quest For The Holy Memex: Часть 2 или Вавилонский Синдром
Часть 1 (как я вообще в это вляпался)1. «Первородный грех»
ChatGPT 5.5: Полный обзор и тесты. Как использовать новую нейросеть в России
Выход ChatGPT 5.5 (кодовое имя «Spud») многое изменил в мире ИИ. Это не просто дежурное обновление, а первая с нуля переобученная базовая языковая модель OpenAI со времен GPT-4.5. Ищете подробный обзор новой нейросети? Вы по адресу.ChatGPT 5.5
Open WebUI (с веб-поиском) + llama.cpp
Когда я решил использовать веб-поиск в OpenWebUI результат оказался бесполезным. Гайд по настройке, чтобы получать хоть сколько-то приемлемый результат найти не удалось ни на русском, ни на английском. Поэтому решил собрать всё что удалось найти в этой статье.Очевидно, что это не сравнится с проприетарными и платными сервисами. Но могут быть разные причины для использования локальных моделей: запрет или нежелание передавать данные третьим лицам, невозможность оплатить сервисы, желание использовать Unrestricted/Derestricted/Oblitirated модели.Настройка для видеокарты NVIDIA 3090 24Gb и 32Gb RAM на Windows 10 (22H2).Установка и запуск llama.cpp
Model Context Protocol (MCP): как ИИ-агенты «разговаривают» с внешним миром
Взаимодействие MCP и LLMЕсли вы читали или смотрели видео про MCP, то наверняка сталкивались с таким комментарием: «Спасибо, ещё одна статья, из которой я ничего не понял».Аналогии и пояснения вроде «MCP — это как USB Type-C» или «MCP — это Tools, Resources и Prompts»
Оффлайн агент IDE Continue за 15 минут
ОглавлениеВведениеЧто потребуетсяШаг 1: Установка OllamaШаг 2: Загрузка моделей (LLM + embed)Шаг 3: Установка IntelliJ IDEA и плагина ContinueШаг 4: Настройка config.yamlШаг 5: Индексация проекта и первый запускПример работы: генерация и вставка кодаЗаключениеВведениеЯ расскажу, как реализовать локального LLM, который будет генерировать текст, код, тесты и сам вставлять результат прямо в ваш проект, если это требуется.⚠️ Важно: это не полноценный «агент» в современном понимании (с планированием, памятью и т.д.). Но плагин
