gemma.

Как Gemma и LangGraph написали законопроект победившего биопанка

Для специального бенчмарка мне потребовался нормативно-правовой документ с научной терминологией, перекрестными ссылками и набором сложных для векторизации имён. По традиции для подобных задач я использую тексты в жанре Киберпанк. Сразу вспомнил о «Манифесте Киберпанка» (слишком коротком для моей задачи) и Предложении 653 из «Видоизмененного углерода», у которого в реальности вообще нет текста.

продолжить чтение

Один разработчик, ноль строк кода — как я построил AI-систему, не умея программировать

20 000 строк кода. 9 Python-модулей. 8 JavaScript-файлов. 11 HTML-оверлеев для стримов. 16 таблиц в базе данных. 678 коллекций в базе знаний с почти 11 тысячами embeddings. Десктоп-приложение с установщиком, которое можно скачать с сайта. Telegram-бот с памятью на 30 дней. Twitch-бот с викторинами, модерацией и системой заказа музыки через YouTube.Я не написал ни одной строчки. Ни одной.Кто я такойМеня зовут Михаил, мне 28, я из Казахстана. По специальности — электромонтажник. Английский не знаю вообще никак. Книжку по Clojure пришлось переводить через AI, потому что русского издания не существует.

продолжить чтение

Для Chrome вышло расширение для локального запуска браузерного AI-ассистента на базе Gemma 4

ML-инженер Нико Мартин (Nico Martin) из Hugging Face выпустил расширение для Chrome, с помощью которого в браузере можно запустить локального AI-ассистента. Проект построен на базе Transformers.js и моделей Gemma 4 E2B и all-MiniLM-L6-v2.

продолжить чтение

Франкенштейн на 30 ГБ RAM: Как мы пересадили мозг Gemma в скелет DeepSeek и сломали Transformers

У нас было две бесплатные видеокарты T4 в Kaggle, 30 ГБ оперативной памяти и безумная идея: что будет, если взять веса классической модели (Gemma-4-31B) и хирургическим путем, без всякого дообучения, вшить их в MoE-архитектуру (DeepSeek-V4)? В академической среде вам скажут, что это невозможно: разные размерности, несовместимые слои нормализации, разные принципы роутинга токенов. Но в парадигме Ghetto MLOps нет слова «невозможно». Есть только вопрос: сколько костылей потребуется, чтобы это скомпилировалось?

продолжить чтение

Выжать больше из локальных LLM. Ollama медленнее llama.cpp в 3 раза. UD_Q4_K_XL лучше чем Q4_K_M, а вес тот же и т.д

продолжить чтение

Gemma 4: что это такое и какую модель выбрать?

продолжить чтение

Google тихо выпустила офлайн-диктовку с ИИ для iPhone

продолжить чтение

Как мы автоматизировали процесс найма с помощью LLM и сократили ручной труд HR на 70%

Первичный скрининг сотен резюме — знакомая многим компаниям «боль»: он отнимает до 80% времени рекрутёров. Наш эксперимент по внедрению LLM в процесс найма показал, что даже простая модель может стать мощным союзником, если возьмёт на себя самую монотонную часть работы.

продолжить чтение

RepE — как активационная инъекция влияет на энтропию, деградацию и качество ответов LLM?

Современные большие языковые модели достигли впечатляющих результатов в генерации текста, однако они до сих пор остаются жуткой стохастикой. На мой взгляд проблема текущего ИИ заключается не в синтетических обучающих данных или архитектурных ограничениях, а в отсутствии внутренней верификации.

продолжить чтение

Google выпускает FunctionGemma, позволяющую смартфонам воспринимать команды от ИИ

Компания Google выпустила FunctionGemma, специализированную версию компактной языковой модели Gemma 3 270M. Созданная на основе 

продолжить чтение

123