Как мы автоматизировали процесс найма с помощью LLM и сократили ручной труд HR на 70%
Первичный скрининг сотен резюме — знакомая многим компаниям «боль»: он отнимает до 80% времени рекрутёров. Наш эксперимент по внедрению LLM в процесс найма показал, что даже простая модель может стать мощным союзником, если возьмёт на себя самую монотонную часть работы.
RepE — как активационная инъекция влияет на энтропию, деградацию и качество ответов LLM?
Современные большие языковые модели достигли впечатляющих результатов в генерации текста, однако они до сих пор остаются жуткой стохастикой. На мой взгляд проблема текущего ИИ заключается не в синтетических обучающих данных или архитектурных ограничениях, а в отсутствии внутренней верификации.
Google выпускает FunctionGemma, позволяющую смартфонам воспринимать команды от ИИ
Компания Google выпустила FunctionGemma, специализированную версию компактной языковой модели Gemma 3 270M. Созданная на основе
Запускаем LLM на iPhone локально — мой опыт с Gemma 2B
ВведениеДолгое время меня мучал вопрос - возможно ли запустить ИИшку у себя на телефоне, и если да, то какую. Я уверен, что об этом думали многие, но не понимали смысла, зачем тратить время на такого рода занятия. Чтож, я не выдержал и сделал мини-приложение, которое запускает Qwen / Gemma модель и общается с вами без доступа в интернет. Задачи минимум: 1. Развернуть модель ИИ у себя на iPhone2. Навайбкодить приложение, где можно общаться ИИ без доступа в интернет 3. Замерить потребление ресурсов моего iPhone во время работы с приложениемЧто получилось в итогеiPhoneLLM
Разработка LLM с нуля. Новые модели
Крупное обновление в моем курсе Разработка LLM с нуля.Напомню, в курсе мы с нуля разрабатываем модель GPT-1 и все необходимые для ее работы компоненты: токенизатор, эмбединги, механизм внимания и т.д. Вся разработка ведется на Python и низкоуровневых компонентах PyTorch.
Локальные LLM модели: обзор и тестирование
В ★5УГЛОВ мы часто работаем с языковыми моделями — как облачными, так и локальными. И если про онлайн-сервисы знают все, то локальные LLM до сих пор остаются недооцененным инструментом. Я решил поделиться личным опытом: какие модели можно запускать прямо на ПК, чем они полезны и зачем их вообще использовать в реальных проектах.
Google представила Gemma 3n — мультимодальный ИИ, который пойдет на смартфоне и ноутбуке
В компании рекламируют Gemma 3n как первую компактную модель, которая достигла рейтинга 1300 на LMArena:

