llm.
Chrome может незаметно скачать на диск локальную ИИ-модель Gemini Nano на 4GB
Об этом написал автор That Privacy Guy, а потом тему начали обсуждать на Hacker News и в других сообществах. В профиле Chrome может появиться папка:AppData/Local/Google/Chrome/User Data/OptGuideOnDeviceModel/Внутри может лежать файл weights.bin размером около 3–4 ГБ. Это вес локальной модели, которую Chrome использует для on-device AI-функций: Prompt API, Gemini Nano и некоторых защитных механизмов вроде анализа подозрительных страниц.Это не значит, что Google “украл SSD
Выбираем и оцениваем open-source LLM для саммаризации встреч
Публичные бенчмарки LLM дают ориентиры по общему уровню моделей, но не отвечают на вопрос, как они ведут себя в конкретной задаче. А прикладные сценарии чувствительны к деталям: формату входных данных, структуре ответа, требованиям к точности. В этих условиях различия между моделями становятся более заметными.Даже у близких по классу моделей небольшие различия в архитектуре и обучении дают заметный разброс в качестве ответов.Качество моделей сильно зависит от типа задачи
Один ИИнженер — десять рук: как мы исследовали LLM в AppSec
Всем привет, на связи Solar appScreener!В этой статье расскажем о нашем опыте использования ИИ в нашем собственном продукте.
Перевод: LLMs Corrupt Your Documents When You Delegate от Microsoft
Это перевод научной статьи от исследователей компании Microsoft. Статья была опубликована 17 апреля 2026 года. См. источник
Ollama Cloud Client: когда модели слишком тяжелы для локального запуска
Привет. Меня зовут Николай Пискунов, я руководитель направления Big Data и эксперт курса Cloud DevSecOps по безопасной разработке от Академии вАЙТИ Beeline Cloud. Сегодня я хочу поделиться историей создания одного интересного проекта — клиента для облачного сервиса Ollama.
Качество кода в эпоху AI: как не утонуть в багах и уязвимостях
Современные LLM генерируют код в разы быстрее разработчика, но «быстро» не значит «правильно»: модель может неверно понять задачу, внести логический баг, допустить уязвимость или сломать архитектуру проекта.
«Яндекс» представил открытое решение на базе LLM для ускорения миграции iOS-кода на Swift
Разработчики «Яндекса» выложили
За два месяца вместо года: как мы переписали 97 тысяч строк кода с Objective-C на Swift
Миграция большого iOS-проекта с Objective-C на Swift кажется понятной задачей ровно до тех пор, пока не начинаешь считать объём. В нашем случае это были 10 тысяч файлов, сотни тысяч строк кода и постоянная необходимость не останавливать развитие продукта. Ручной подход работал слишком медленно, поэтому мы начали автоматизировать миграцию с помощью LLM — и в итоге превратили её из бесконечного техдолга в воспроизводимый процесс.
AI-friendly и AI-first: как адаптировать ИТ-проекты под эру LLM
Привет, Хабр! Последние полгода стало модно создавать новые и переводить старые проекты на рельсы AI-First (или AI-Friendly) стандарта. Уже появляются проекты, которые декларируются как «designed for AI to write». Например, AIR

