ai. - страница 5

ai.

Одинаковая модель — разный опыт: где ломается сравнение нейросетей

Привет, Хабр. Я Гоша Соловьёв, ведущий инженер-программист в Контуре.Иногда в одном обсуждении встречаются люди с разным уровнем погружения в нейросети. Они начинают сравнивать опыт, и тут всплывает проблема: фраза вроде «Я использую GPT для своих задач, и он лучше справляется, чем Qwen» буквально ни о чём не говорит, пока мы не уточним контекст. Более того — она легко вводит собеседника в заблуждение.В этой статье я объясню, почему два человека, использующие OpenAI GPT, могут получать кардинально разный результат, и как обсуждать ИИ-агентов так, чтобы разговор был предметным и конструктивным.

продолжить чтение

Как Google сделал то, что не удавалось никому за всю историю смартфонов

Siri запустили в 2011-мПятнадцать лет назад. Вдумайтесь.

продолжить чтение

Google представила голосовую модель Gemini 3.1 Flash Live

продолжить чтение

«Википедия» запретила использовать языковые модели для написания статей

Англоязычная «Википедия» запретила редакторам писать и переписывать статьи с помощью языковых моделей. Новое правило закрепили в редакционной политике организации.

продолжить чтение

Почему я не поладил с OpenClaw, ZeroClaw и Moltis, и что у меня вышло в итоге. Спойлер: MicroClaw

В этой статье я расскажу, как начал разрабатывать персонального ИИ-ассистента задолго до бума OpenClaw, с какими фундаментальными проблемами столкнулся и почему в итоге решил написать свой фреймворк. Вы узнаете, какие принципы работы ИИ-агента, как мне кажется, наиболее важны в современных агентских системах, как он обеспечивает безопасность и почему Python все-таки лучший выбор для подобных проектов. Если вы тоже пробовали подружиться с LLM-агентами, но сталкивались с перерасходом токенов, утечкой данных или проблемами их запуска, интеграции и модификации — возможно, этот проект окажется полезным.

продолжить чтение

«ИИ масштабнее, чем Covid»? Почему 85 миллионов человек ошибаются насчёт ИИ и рабочих мест

«Происходит что-то масштабное». «Большинство людей не узнает об этом, пока не станет слишком поздно».

продолжить чтение

Топ нейросетей для работы с таблицами: Zoho, BotHub, GPTExcel и другие

Думаю, каждый, кто хоть раз пытался подготовить отчёт к утру понедельника, сталкивался с этим чувством. Когда в таблице 500 строк, в каждой какой-то текст, а начальник просит просто выделить главное. Просто, да.

продолжить чтение

Исследование Selectel: 35% российских компаний нарастили потребление ИТ-инфраструктуры для ИИ за последний год

продолжить чтение

Кибербезопасность, Data Science и бизнес-анализ в большом банке: о чем говорили на Техновечере Газпромбанк.Тех

5 марта команда Газпромбанк.Тех провела Техновечер — митап для студентов и начинающих ИТ-специалистов.180 участников, четыре выступления, круглый стол с полуфиналистами Молодежной программы Финополис 365 и нетворкинг с экспертами. Чтобы разговор о технологиях был не просто лекцией, выбрали формат вечернего шоу: с неоном и стилистикой ночного мегаполиса нулевых. Темы: от кибербезопасности и Data Science до бизнес-анализа и командной работы. Рассказываем, как прошло мероприятие.

продолжить чтение

FLUX.2-dev GGUF Q4_K_M на Apple Silicon: куда уходят 29 гигабайт?

Как я пытался понять на что именно тратится VRAM при генерации изображений.В процессе моих изысканий о том как-же создавть изображения локально, я столкнулся с неочевидной, для себя, проблемой в виде колоссального потребления VRAM, которое не сходилось с тем что написано в карточках моделей и в интернете. Разбираемся на примере современной FLUX.2-dev. Чтобы теоретически влезать в доступную мне VRAM на моем оборудовании я выбрал вариант GGUF Q4_K_M. И вот тут началось все самое интересное.Модель: unsloth/FLUX.2-dev-GGUF-Q4_K_M — FLUX.2-dev (DiT-архитектура) с квантизацией Q4_K_M (4-бит, K-means block scaling). Начнем с того, что для

продолжить чтение

1...345678...2030...305
Rambler's Top100