llm.
Еще один взгляд на LLM: рендеринг под другим соусом?
Статья написана без использования нейросетейЛюбая нейросеть — это black box. Любая LLM — это black box^2. Однако люди смогли их придумать. И если старые нейронные сети, основанные на перцептроне или его производных, базируются на вполне известных биологических процессах, то трансформеры лежат вне представления о работе мозга. Следовательно, возникает вопрос — почему это сделано именно так?В давнюю для себя пору я работал с трехмерной графикой, и когда мои должностные обязанности привели меня на темную дорожку современного хайпа, увиденное заставило меня задуматься о том, что где‑то все описанное уже было...
OpenAI готовит релиз ChatGPT-5 — разбор утечек и ожиданий
На прошедшей неделе Google выпустила
RAG с самокопанием: Google выложил опенсорс-стек для AI-агентов, которые умеют думать
Все мы уже привыкли к тому, что большие языковые модели любят «галлюцинировать». Чтобы побороть это, придумали RAG (Retrieval-Augmented Generation) — подход, когда модель не выдумывает ответ, а ищет его в предоставленных документах. Проблема в том, что большинство RAG-систем довольно прямолинейны: нашли первый попавшийся релевантный кусок — вставили в ответ. В итоге получается рерайт статьи из Википедии, а не глубокий анализ.И вот, Google выложили в опенсорс проект Gemini Fullstack LangGraph
Модели ИИ могут определять, когда их тестируют, и вести себя по-другому
Недавнее исследование, проведённое в рамках программы ML Alignment & Theory Scholars (MATS) и Apollo Research, показало, что современные ведущие языковые модели на удивление хорошо определяют, когда взаимодействие является частью теста, а когда — реальным разговором.
Сверхспособность LLM в понимании документа, сконвертированного в текст с ошибками — или почему наш RAG работает
Недавно я столкнулся с интересным поведением языковой модели, которое меня по-настоящему удивило, и хочу поделиться этим наблюдением с сообществом.
Использование больших языковых моделей (LLM) в Access Management
ВведениеХайп вокруг нейросетей, особенно больших языковых моделей (LLM), пока не утихает.Как в свое время было с хайпом на блокчейн многие техноэнтузиасты начинают применять подход “решение в поисках проблемы”. То есть, искать применение нейросетей ко всем задачам подряд.Это объясняется двумя причинами:Повысить шансы привлечение инвестиций, добавив суффикс AI к названию своего проекта.Экспериментировать с новыми технологиями всегда интересно.Access Management
Мультимодальные LLM: ключик к AGI или зачем бизнесу модели, которые видят, слышат и понимают?
Мультимодальные модели — звучит как что-то для исследовательских лабораторий и презентаций на AI-конференциях. Но на самом деле они уже работают здесь и сейчас: анализируют документы, пишут тексты, создают рекламу, генерируют видео, помогают врачам и юристам.Привет, Хабр! Это интервью с Александром Капитановым. Саша руководит исследовательскими ML-командами в Сбере. Активный контрибьютор в Open Source. А ещё он член программного комитета AiConf X и HighLoad++ от «Онтико».
От задачи до решения: LLM с RAG-конфигурацией и ROC-AUC. Эксперимент на 121 прогоне за 40 часов с помощью ИИ
Меня зовут Антон, сейчас занимаюсь прикладными проектами индекса цифровой зрелости БРИКС. Пробую за счет инструментов ИИ собирать каскады моделей ИИ для выявления неочевидных зависимостей в разных экономических и культурных процессах на основе данных извлекаемых из открытых источников.
Пик ИИ близок
С момента запуска ChatGPT в ноябре 2022 года — два с половиной года назад — языковые модели-трансформеры запустили волну технологического хайпа, не имеющего аналогов в современной истории. Артур Кларк однажды сказал: «Любая достаточно развитая технология неотличима от магии», — и действительно, инженеры ИИ смогли довести технологию до такого уровня.Но этот прогресс имеет цену. Речь не о физических ресурсах вроде электричества или видеокарт — со временем их производство можно масштабировать. Самый ценный ресурс для обучения моделей — это человеческое мышление, дистиллированное в текстах, созданных человеком.

