Машинное обучение. - страница 128

Кручу-верчу, обмануть хочу: как испортить картинку, чтобы нейросеть стала умнее

продолжить чтение

Голоса в голове делают ответы ИИ лучше — исследование Google

Исследователи из Google и Чикагского университета выяснили

продолжить чтение

Конец эры «одноядерного» разума: Почему будущее ИИ — это гонка архитектур, а не параметров

От автора

продолжить чтение

ClickHouse приобрела разработчика ИИ-решений Langfuse

Американский стартап с российскими корнями ClickHouse приобрёл разработчика ИИ-решений Langfuse, чтобы создать лучшую версию платформы для LLM-инженерии. 

продолжить чтение

«Галлюцинации LLM — это не баг»: профессор математики объясняет, почему ИИ не перестанет врать

Владимир Крылов, профессор математики, научный консультант Artezio и один из самых глубоких русскоязычных экспертов по применению ИИ в разработке, дал интервью по итогам года. Мы поговорили о том, почему reasoning-модели галлюцинируют вдвое чаще обычных (и это математически неизбежно), почему OpenAI объявил «код красный» и отстаёт от Google, и правда ли, что программисты, умеющие писать код только руками, скоро вымрут как вид. Спойлер: Паваротти не умел читать ноты, и это кое-что говорит о будущем vibe-coding.Владимир Крылов регулярно проводит лекции о практическом применении LLM в разработке на канале Ai4dev

продолжить чтение

Анатомия трансформеров: почему обычный Self-Attention больше не используют

Как работают языковые модели? Думаю, это один из самых актуальных вопросов в последние годы. Я регулярно задаюсь этим вопросом и постоянно читаю материалы по работе трансформеров. Из всего, что я узнал, самый сложный, по моему мнению, механизм в работе LLM - внимание (attention)ВведениеПривет, Хабр! В этой статье я постараюсь рассказать, как механизм внимания помогает языковым моделям обрабатывать тысячи слов контекста и почему с этим не справлялись в свое время обычные RNN. В конце статьи я расскажу про проблемы классического attention и современные адаптации.

продолжить чтение

Пишем статью на Хабр, используя ИИ: бросаем вызов детекторам искусственного интеллекта

Давайте будем честными: огромное количество авторов статей на уважаемом всеми нами Хабре прибегает к помощи нейросетей. Кто-то структурирует свои хаотичные заметки в нечто осмысленное (так делаю я, например). Кто-то проверяет грамматику и стиль, или просит ИИ набросать черновик статьи, а затем перерабатывает всё вручную.

продолжить чтение

Похоже, GPT-5.3 уже на подходе — и это может быть один из самых серьёзных апдейтов OpenAI за долгое время

По информации из нескольких источников, новая версия модели проходит под кодовым названием Garlic. Если верить инсайдам, GPT-5.2 был лишь промежуточным чекпоинтом — своего рода «разбавленной версией» того, чем станет 5.3.Главная цифра — 2 000 токенов в секунду. Именно такую скорость сможет выдавать арендный кодинг на базе GPT-5.3 благодаря партнёрству OpenAI с Cerebras.

продолжить чтение

RLM-Toolkit v1.2.1: Теоретические основы и оригинальные разработки

Научное исследование архитектурных решений в контексте теории информации, криптографии и когнитивных систем📌 Это продолжение статьи RLM-Toolkit: Полное руководство по обработке 10M+ токеновПервая часть охватывала практические аспекты. Здесь — глубокий теоретический анализ: от теории Шеннона до когнитивной архитектуры памяти.АннотацияНастоящая работа представляет комплексный анализ архитектурных решений RLM-Toolkit v1.2.1, разработанного в рамках проекта SENTINEL AI Security Platform.Мы демонстрируем:Криптографическую необходимость

продолжить чтение

Академия “ГлоуБайт” запустила два новых курса по работе с большими языковыми моделями

Создано с помощью GeminiАкадемия “ГлоуБайт”

продолжить чтение