Машинное обучение. - страница 230

Тестируем YandexGPT-5-Pro. Когда хотелось быть ChatGPT, но в душе всё ещё Алиса

ИИ‑модели сменяют друг друга быстрее, чем новые айфоны. Теперь даже технологические гиганты предпочитают не строить модели с нуля, а брать за основу существующие решения и дообучать их под свои задачи. Вот и «Яндекс» не стал исключением: его новая модель YandexGPT-5, по сути, выросла из

продолжить чтение

Тестирование платформы DeepSeek для проверки гипотез по анализу данных

Привет, Хабр!Мы, ребята из Центра эксплуатации Блока ИТ Страхового Дома ВСК, занимаемся управлением автоматизации ИТ-процессов. И у нас, как у всех —

продолжить чтение

Википедия в эпоху LLM: когда ИИ начинает влиять на коллективный разум

продолжить чтение

На Apple подали в суд из-за задержек Apple Intelligence, хотя компания рекламировала ИИ в iPhone как готовый продукт

В США против Apple подан коллективный иск из-за

продолжить чтение

Оркестрация чатов LLM моделей через Redis

Исходный код, разобранный в данной статье, опубликован в этом репозитории При работе с языковыми моделями частым явлением являются галлюцинации - когда модель даёт неверных вывод. Это связано с издержками математической модели, которая пораждает важные нюансы, разобранные в данной статье

продолжить чтение

Cложить два числа-гиганта или почему я прошел квест на собеседовании а на работу в BigTech взяли ChatGPT?

Евгений Жуков (@EvgeniiZhukov) написал статью "Сложить два числа-гиганта: как я прошел квест на собеседовании в Бигтех" https://habr.com/ru/companies/bitrix/articles/891574/Краткое содержание:Сценарий: вы на собеседовании, ожидаете вопросов про React, WebGL или хотя бы про Event Loop. А вместо этого получаете: "Напишите функцию сложения двух чисел в столбик, но числа передаются как массивы."Зачем это вообще кому-то нужно:А интервьюер смотрит, как вы справляетесь с базовой задачей, которая проверяет:Умение работать с

продолжить чтение

Дедупликация объявлений: как мы боремся с одинаковыми размещениями

продолжить чтение

Машинное обучение в продуктовой разработке, где его не ожидают

Базовые подходы и подводные камни

продолжить чтение

Исследование Codenrock: от IT-соревнований 2024 года к трендам 2025

Привет, Хабр! Меня зовут Дарья Зыкина, и я с командой организую и продвигаю лучшие хакатоны на Codenrock

продолжить чтение

Reasoning-LLM: архитектура и обзор передовых моделей

Reasoning-LLM — это большие языковые модели, нацеленные на логическое рассуждение при решении сложных задач. В отличие от обычных LLM, которые часто выдавали ответы сразу, такие модели способны «думать» пошагово — как человек, анализируя задачу и выстраивая цепочку вывода. Появление reasoning-LLM связано с тем, что традиционные LLM (например, GPT-4 или Llama 3.1) хотя и хорошо справляются с языковыми и энциклопедическими запросами, нередко ошибались в задачах, требующих сложных вычислений, планирования или логического вывода. В этой статье мы подробно разберем, как работают reasoning-LLM, их внутреннее устройство (Transformer, self-attention, механизмы «мышления»). А еще — рассмотрим передовые модели (OpenAI o1, DeepSeek R1 и Claude 3.7 Sonnet), факторы, влияющие на их точность, и дадим практические рекомендации по применению.

продолжить чтение

Rambler's Top100