Microsoft представила встроенную в Windows 11 локальную языковую модель Mu
Microsoft презентовала малую языковую модель Mu, которая встроена в Windows 11 и будет работать локально. Эта модель обеспечивает работу агента в настройках, доступного для инсайдеров Windows в Dev Channel с ПК Copilot+, путём сопоставления запросов ввода на естественном языке с вызовами функций настроек.
OpenAI обязали хранить даже удалённые чаты пользователей ChatGPT
Суд постановил, что OpenAI должна «бессрочно» хранить все журналы ChatGPT, включая удалённые чаты миллионов пользователей. Постановление было направлено на сохранение потенциальных доказательств в иске о нарушении авторских прав, поданном новостными организациями.
«Яндекс Практикум» обучит 10 тысяч специалистов ИИ-профессиям до 2027 года
«Яндекс Практикум» обучит почти 10 тысяч специалистов ИИ-профессиям до конца 2027 года. Это будет около четверти от всех специалистов в этой области, которых планируется подготовить в России к этому времени.«Практикум» расширит линейку курсов по искусственному интеллекту. Уроки по ИИ появятся и в уже действующих курсах. Это даст базовые навыки работы с нейросетями специалистам из разных сфер.
Как Cursor устроен изнутри. Часть 2
Полная версия платной статьи, публикуется с разрешения автора. Первая часть здесь.В этой части поговорим о сложностях, с которыми столкнулась команда при лавинообразном росте нагрузки, как разваливался бекенд, а архитекторы из AWS только пожимали плечами.5. Инженерные вызовы
За 15 минут установил Gemma 3 12B на Mac — было проще, чем с DeepSeek
Недавно решил покопаться в локальных языковых моделях и наткнулся на новинку от Google DeepMind — Gemma 3 12B. Модель мощная, с открытой лицензией и, что особенно порадовало, спокойно запускается прямо на ноутбуке. Без серверов, клаудов и трат на аренду GPU.Чтобы всё это заработало без плясок с настройками, я взял LM Studio — простой и удобный интерфейс для работы с LLM, который буквально делает «запустил и поехали».Я написал этот материал для блога Minervasoft
Забудьте про Hugging Face и CLI — ставим Gemma 3 12B за 15 минут
Недавно решил покопаться в локальных языковых моделях и наткнулся на новинку от Google DeepMind — Gemma 3 12B. Модель мощная, с открытой лицензией и, что особенно порадовало, спокойно запускается прямо на ноутбуке. Без серверов, клаудов и трат на аренду GPU.Чтобы всё это заработало без плясок с настройками, я взял LM Studio — простой и удобный интерфейс для работы с LLM, который буквально делает «запустил и поехали».Я написал этот материал для блога Minervasoft
15 минут — и у тебя свой LLM, который не утекает в облако и не стоит $20 в месяц
Недавно решил покопаться в локальных языковых моделях и наткнулся на новинку от Google DeepMind — Gemma 3 12B. Модель мощная, с открытой лицензией и, что особенно порадовало, спокойно запускается прямо на ноутбуке. Без серверов, клаудов и трат на аренду GPU.Чтобы всё это заработало без плясок с настройками, я взял LM Studio — простой и удобный интерфейс для работы с LLM, который буквально делает «запустил и поехали».Я написал этот материал для блога Minervasoft
15 минут — и у тебя бесплатная ИИ-модель для генерации кода, текста, чтения иллюстраций
Недавно решил покопаться в локальных языковых моделях и наткнулся на новинку от Google DeepMind — Gemma 3 12B. Модель мощная, с открытой лицензией и, что особенно порадовало, спокойно запускается прямо на ноутбуке. Без серверов, клаудов и трат на аренду GPU.Чтобы всё это заработало без плясок с настройками, я взял LM Studio — простой и удобный интерфейс для работы с LLM, который буквально делает «запустил и поехали».Я написал этот материал для блога Minervasoft

