llm. - страница 10

llm.

Chrome может незаметно скачать на диск локальную ИИ-модель Gemini Nano на 4GB

Об этом написал автор That Privacy Guy, а потом тему начали обсуждать на Hacker News и в других сообществах. В профиле Chrome может появиться папка:AppData/Local/Google/Chrome/User Data/OptGuideOnDeviceModel/Внутри может лежать файл weights.bin размером около 3–4 ГБ. Это вес локальной модели, которую Chrome использует для on-device AI-функций: Prompt API, Gemini Nano и некоторых защитных механизмов вроде анализа подозрительных страниц.Это не значит, что Google “украл SSD

продолжить чтение

Выбираем и оцениваем open-source LLM для саммаризации встреч

Публичные бенчмарки LLM дают ориентиры по общему уровню моделей, но не отвечают на вопрос, как они ведут себя в конкретной задаче. А прикладные сценарии чувствительны к деталям: формату входных данных, структуре ответа, требованиям к точности. В этих условиях различия между моделями становятся более заметными.Даже у близких по классу моделей небольшие различия в архитектуре и обучении дают заметный разброс в качестве ответов.Качество моделей сильно зависит от типа задачи

продолжить чтение

Один ИИнженер — десять рук: как мы исследовали LLM в AppSec

Всем привет, на связи Solar appScreener!В этой статье расскажем о нашем опыте использования ИИ в нашем собственном продукте.

продолжить чтение

Перевод: LLMs Corrupt Your Documents When You Delegate от Microsoft

Это перевод научной статьи от исследователей компании Microsoft. Статья была опубликована 17 апреля 2026 года. См. источник

продолжить чтение

Ollama Cloud Client: когда модели слишком тяжелы для локального запуска

Привет. Меня зовут Николай Пискунов, я руководитель направления Big Data и эксперт курса Cloud DevSecOps по безопасной разработке от Академии вАЙТИ Beeline Cloud. Сегодня я хочу поделиться историей создания одного интересного проекта — клиента для облачного сервиса Ollama.

продолжить чтение

Сначала архитектура, потом «магия»: наш путь от сценарных голосовых ботов к умным ассистентам

продолжить чтение

Качество кода в эпоху AI: как не утонуть в багах и уязвимостях

Современные LLM генерируют код в разы быстрее разработчика, но «быстро» не значит «правильно»: модель может неверно понять задачу, внести логический баг, допустить уязвимость или сломать архитектуру проекта.

продолжить чтение

«Яндекс» представил открытое решение на базе LLM для ускорения миграции iOS-кода на Swift

Разработчики «Яндекса» выложили

продолжить чтение

За два месяца вместо года: как мы переписали 97 тысяч строк кода с Objective-C на Swift

Миграция большого iOS-проекта с Objective-C на Swift кажется понятной задачей ровно до тех пор, пока не начинаешь считать объём. В нашем случае это были 10 тысяч файлов, сотни тысяч строк кода и постоянная необходимость не останавливать развитие продукта. Ручной подход работал слишком медленно, поэтому мы начали автоматизировать миграцию с помощью LLM — и в итоге превратили её из бесконечного техдолга в воспроизводимый процесс.

продолжить чтение

AI-friendly и AI-first: как адаптировать ИТ-проекты под эру LLM

Привет, Хабр! Последние полгода стало модно создавать новые и переводить старые проекты на рельсы AI-First (или AI-Friendly) стандарта. Уже появляются проекты, которые декларируются как «designed for AI to write». Например, AIR

продолжить чтение