llm. - страница 66

llm.

Как некачественные данные подтачивают способности нейросетей и что с этим делать

Языковые модели помогают кодить, писать тексты, отвечают на вопросы и даже подсказывают идеи. Но все, чему они учатся, берется из интернета, а там хватает и полезного, и откровенного мусора. Ученые из Texas A&M и Purdue University выяснили, что если в обучающие наборы попадает слишком много поверхностного или ошибочного контента, модели начинают работать хуже. Этот эффект исследователи описали как «размягчение мозга» (brain rot) — по аналогии с тем, как у человека притупляется внимание после длительного погружения в поток однотипной информации.

продолжить чтение

Маршрутизация LLM: оптимизация путей обработки языка

Повышение эффективности и производительности через инновационные стратегии маршрутизации.ИсточникЧто такое LLM Routing?В стремительно развивающемся мире искусственного интеллекта большие языковые модели (LLM)

продолжить чтение

Нейро-дайджест: ключевые события мира AI за 1-ю неделю ноября 2025

Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.Меня зовут Вандер

продолжить чтение

MiniMax-M2 уже доступна в плагине Koda для VS Code и в Koda CLI. Можно попробовать бесплатно

MiniMax выпустили обновление своей флагманской модели, и она уже доступна в Koda.MiniMax M2 — новая языковая модель от компании MiniMax, ориентированная на использование в «агентах» и для программирования.Акцентируют внимание на трёх ключевых способностях: программирование, использование инструментов (tool­calling) и глубокий поиск/поиск через данные.Бьет по метрикам в коддинг предыдущего лидера из опенсорc - GLM 4.6. Так же уверенно бьет DeepSeek.

продолжить чтение

Сама не разберётся: мои 7 принципов генерации кода с LLM

продолжить чтение

Pov-real: непопулярные мнения об индустрии genAI

Привет, Хабр! На связи Just AI, и сегодня мы собрали для вас непопулярные мнения экспертов индустрии на тему genAI. Зачем? Потому что новости о прорывных технологиях, многомиллиардных инвестициях и стартапах появляются почти каждый день – сложно не утонуть в этом потоке и понять, где реальная ценность, а где просто хайп. Критическое мышление – наше все!В нашем телеграм-канале мы устроили челлендж «pov/real»

продолжить чтение

Pov-real: развеиваем мифы об индустрии genAI и делимся непопулярными мнениями экспертов

Привет, Хабр! На связи Just AI, и сегодня мы собрали для вас непопулярные мнения экспертов индустрии на тему genAI. Зачем? Потому что новости о прорывных технологиях, многомиллиардных инвестициях и стартапах появляются почти каждый день – сложно не утонуть в этом потоке и понять, где реальная ценность, а где просто хайп. Критическое мышление – наше все!В нашем телеграм-канале мы устроили челлендж «pov/real»

продолжить чтение

Как агенты на базе LLM становятся практичнее: подход Anthropic к выполнению кода в MCP

продолжить чтение

Делаем LLM-советника по акциям РФ как в Alfa Arena

Стартовал шоу-эксперимент Alfa Arena, где шесть LLM моделей (Claude, GPT, Gemini и компания) торгуют криптой на реальные деньги. Каждой дали по $10,000 и сказали: "Докажи, что ты умнее рынка".Сейчас все следят, кто первым сольет или удвоится. Но есть нюанс.Пока вы следите за руками фокусника, фокус происходит в другом местеДавайте честно: краткосрочная торговля — это казино с калькулятором. Сегодня +40%, завтра -30%, послезавтра модель объяснит почему это было "стратегически верно". Крипта непредсказуема как женщина после третьего бокала, и никакая LLM этого не изменит.

продолжить чтение

ADSM: видеочат на WebRTC через Codex-агента

Мои родители и вся моя семья живут в Риге, а большинство наших родственников - в России и Украине. Когда привычные мессенджеры начинают работать с перебоями, хочется иметь простой и независимый способ связи. Самый простой способ из мне известных - WebRTC.В рамках развития собственного понимания тонкостей парной разработки программ с участием LLM-агентов я решил создать PWA для видеочата на базе WebRTC при помощи Codex-агента.Считаю, что эксперимент завершился успешно, хотя и не очень хорошо. Я использовал все лимиты Plus-подписки на Codex, но при этом получил работающий прототип.

продолжить чтение

Rambler's Top100