Машинное обучение. - страница 332

Исследование Codenrock: от IT-соревнований 2024 года к трендам 2025

Привет, Хабр! Меня зовут Дарья Зыкина, и я с командой организую и продвигаю лучшие хакатоны на Codenrock

продолжить чтение

Reasoning-LLM: архитектура и обзор передовых моделей

Reasoning-LLM — это большие языковые модели, нацеленные на логическое рассуждение при решении сложных задач. В отличие от обычных LLM, которые часто выдавали ответы сразу, такие модели способны «думать» пошагово — как человек, анализируя задачу и выстраивая цепочку вывода. Появление reasoning-LLM связано с тем, что традиционные LLM (например, GPT-4 или Llama 3.1) хотя и хорошо справляются с языковыми и энциклопедическими запросами, нередко ошибались в задачах, требующих сложных вычислений, планирования или логического вывода. В этой статье мы подробно разберем, как работают reasoning-LLM, их внутреннее устройство (Transformer, self-attention, механизмы «мышления»). А еще — рассмотрим передовые модели (OpenAI o1, DeepSeek R1 и Claude 3.7 Sonnet), факторы, влияющие на их точность, и дадим практические рекомендации по применению.

продолжить чтение

Разработчик выпустил плагин для интеграции Cursor в Figma

UX-инженер Сонни Лазуарди (Sonny Lazuardi) выпустил плагин для интеграции Cursor в Figma. С его помощью можно использовать языковую модель для генерации макетов.Плагин построен на базе протокола Model Context Protocol (MCP). Он связывает приложение с языковой моделью и позволяет ей вносить изменения в локальные файлы на устройстве пользователя.Автор проекта показал, что с помощью плагина сгенерировал макет экрана авторизации. Для этого он использовал запрос design a modern looking login mobile screen.

продолжить чтение

Hugging Face выпустила HuggingSnap — аналог Google Lens для iOS, который работает локально

Разработчики Hugging Face выпустили HuggingSnap — аналог Google Lens для iOS, который работает прямо на устройстве. Пользователи получают чуть меньше возможностей, но зато не делятся своими данными с корпорацией.

продолжить чтение

Выбор локальной LLM модели. Публикация на сайт с чатом

Исходный код, разобранный в данной статье, опубликован в этом репозиторииДля решения некоторых задач бизнес-требованием является запуск LLM модели локально на своём железе. Это связано с SJW цензурой, например, стандартный датасет для обучения Llama не позволяет вести консультации, носящие медицинский характер: рекомендовать лекарства, обсуждать носящую интимный характер медицинскую тайну с ИИ-терапевтом (см побочки антидепрессантов)

продолжить чтение

Ищем соринку в глазу: контроль качества с помощью компьютерного зрения

ВведениеПривет, Хабр. На связи Аеза и сегодня мы хотели бы рассказать о том, как используется искусственный интеллект для контроля качества различных изделий.Здесь мы сразу оговоримся, что мы будем говорить именно о компьютерном зрении, как области  искусственного интеллекта, которая позволяет машинам интерпретировать и анализировать визуальные данные почти так же, как это делает человек.

продолжить чтение

Мультимодальные языковые модели: как нейросети учатся видеть и слышать

Мультимодальные языковые модели представляют собой самый прогрессивный класс нейросетевых архитектур, объединяющих способность воспринимать и обрабатывать различные типы данных одновременно - текст, изображения, аудио и видео. Это похоже на то, как наш мозг интегрирует информацию из разных органов чувств, чтобы создать полную картину мира. Как сказал философ Марсель Пруст, “Настоящее открытие не в том, чтобы увидеть новые земли, а в том, чтобы иметь новые глаза”.▍ Фундаментальные принципы мультимодальных моделей

продолжить чтение

Как научить нейросеть запоминать вас: технология персонального контекста

Привет, Хабр! Если вы, как и я, регулярно общаетесь с нейросетями, то наверняка сталкивались с ситуацией, когда приходится раз за разом объяснять ИИ одни и те же вещи: кто вы, чем занимаетесь, какие у вас предпочтения и цели. Каждый новый чат — это знакомство с чистого листа. Сегодня я хочу рассказать о технологии, которая решает эту проблему — персональном контексте для LLM. Объясню простыми словами, что это такое, как это работает и почему это важное направление в развитии взаимодействия человека с ИИ.

продолжить чтение

Игра в имитацию: используем Python для генерации синтетических данных для ML и не только

ВведениеРучной сбор данных — это всегда боль. Он съедает время, деньги и нервы, особенно в таких областях, как медицина или финансы, где затраты могут быть космическими, а юридические барьеры — непреодолимыми. По

продолжить чтение

5 причин, почему лучше не использовать ИИ-арт для своей статьи

Плох тот хабраюзер, который не мечтает написать пост. По крайней мере, так было до появления режима read&comment. Однако даже сейчас самые уважаемые люди на этом сайте — авторы, создатели контента (в идеале — качественного, но попытка тоже засчитывается). Сегодня поговорим о том, как сделать свои посты лучше. Или, по крайней мере, как не сделать хуже.

продолжить чтение

Rambler's Top100