Машинное обучение. - страница 262

ИИ-подсказки в коде: костыли мышления или джетпак продуктивности?

ИИ-помощники в программировании ворвались в повседневную жизнь разработчиков с невероятной скоростью. Но что стоит за удобством? Ускорение или поверхностное мышление?

продолжить чтение

Про разработку LLM: какие ещё есть справочники и кукбуки

Сегодня мы продолжим изучать руководства по разработке LLM. А 23 апреля на онлайн-встрече расскажем, почему создание платформы для инференса LLM с нуля — далеко не всегда оптимальный выбор, и объясним, как MWS GPT может значительно упростить и ускорить работу с большими языковыми моделями. Подключайтесь, регистрация открыта по

продолжить чтение

Llama 4 Maverick и Scout: результаты тестирования моделей Meta*

Новые независимые оценки показывают, что последние модели Meta Llama 4 — Maverick и Scout — хорошо справляются со стандартными тестами, но испытывают трудности со сложными задачами с длительным контекстом.Согласно совокупному «индексу интеллекта» от Artificial Analysis

продолжить чтение

Создаю новое направление в изобразительном искусстве — программный LLM ART

Мы посмотрим и на Корбена Далласа и Лилу из фильма «Пятый элемент», на сюжет из фильма «Люди в черном» и другие интересные арты.Генеративные модели могут создавать великолепные изображения и видео, особенно при правильном подходе и знаниях в написании промптов.Но меня интересуют мультимодальные LLM, которые на входе принимают также изображения и видео, а на выходе производят текст. Теоретически они должны иметь хорошие представления о том, как выглядит окружающий мир и как он меняется со временем по законам физики.

продолжить чтение

СМИ призвали власти США принять меры для прекращения «воровства ИИ» такими компаниями, как OpenAI

Ряд медиакомпаний в составе ассоциации News Media Alliance призвали правительство США заставить технологические компании платить за контент, который они используют для создания продуктов на базе искусственного интеллекта. New York Times, Guardian, Washington Post и другие издания запустили кампанию Support Responsible AI («Поддержите ответственный ИИ»), обвинив ИИ-компании в воровстве и отказе выплачивать компенсации авторам.

продолжить чтение

Open Deep Search: как сделать открытый аналог Perplexity своими руками

продолжить чтение

Бенчмарки Llama-4, предположительно — скам на самом высоком уровне

Буквально пару дней назад, комада Llama сообщила о появлении трех новых нейронок под общим зонтиком Llama-4: быстрый Scout с контекстом 10 миллионов токенов. Медленный Maverick с контекстом 1 миллион, но 128 экспертами под капотом. И гигантский Behemoth, который использовался как учитель для предыдущих двух. 10 миллионов токенов и нахаляву — это, мягко говоря, дофига. Можно закрыть глаза и представить, как где-то там в далеком Сан-Франциско, разработчики Gemini Pro начинают искать себе новую работу сантехниками, электриками и ассенизаторами.Но вот прошла пара дней, и Царь оказался ненастоящий.

продолжить чтение

Самое заметное обновление VS Code в 2025 году. Агенты теперь доступны всем, бесплатно и с поддержкой MCP

продолжить чтение

ИИ обучился на психолога и помогает людям

Исследователи из Дартмута провели первое клиническое испытание терапевтического чат-бота на основе генеративного искусственного интеллекта (ИИ) и обнаружили, что использование ИИ привело к значительному улучшению симптомов у участников.Результаты исследования

продолжить чтение

Большая языковая модель «Авито» обогнала OpenAI и Google в бенчмарке MERA

Большая языковая модель A‑Vibe, разработанная «Авито», заняла первое место среди облегчённых моделей (до 10 млрд параметров) в российском бенчмарке MERA. Модель обошла аналоги от OpenAI, Google и Anthropic, рассказали информационной службе Хабра в пресс‑службе «Авито».Команда «Авито» разработала собственные генеративные модели A‑Vibe и A‑Vision, использовав на старте открытую модель. Open source модель плохо работала с русским языком, потому что данные включали 100 языков, а русский занимал 1%. Из‑за этого модель слабо понимала и генерировала тексты на русском.

продолжить чтение

Rambler's Top100