llm. - страница 67

llm.

Как ИИ-браузер ChatGPT Atlas разгадал судоку за пару минут, но проиграл в Flappy Bird

продолжить чтение

Тело AI-агентов: технический обзор робота 1X Neo

На днях по AI пабликам завирусился робот 1X Neo, который заявляется разработчиками как человекоподобный робот для помощи по дому. Мне стало жутко интересно покопаться в устройстве и начинке этого робота, потому что скрещивание VLM и механизмов может привести к огромному прорыву в индустрии и новым большим изменениям.Поговорим про устройство робота, железо и софт на борту, прикладные задачи и ближайшее будущее.

продолжить чтение

Можно ли научить ИИ писать более качественные тексты?

Эпоха больших языковых моделей (LLM, Large Language Model) снова и снова ставит перед нами вопрос о том, что отличает великую прозу от просто хорошей.

продолжить чтение

Децентрализованный ИИ: как рой нейросетей побеждает большие модели

продолжить чтение

Meta и исследователи из OpenAI: новые подходы к защите LLM от prompt injection

Команда AI for Devs подготовила перевод краткой выжимки свежих статей о безопасности LLM. Meta предлагает «Правило двух» — архитектурный принцип, ограничивающий права AI-агентов, чтобы защитить их от prompt injection. А исследователи из OpenAI, Anthropic и Google DeepMind показывают: все существующие защиты легко обходятся адаптивными атаками. На этих выходных мне попались две интересные работы о безопасности LLM и атаках через prompt injection.Agents Rule of Two: Практический подход к безопасности AI-агентовПервая статья — Agents Rule of Two: A Practical Approach to AI Agent Security

продолжить чтение

GDPval: измерение производительности AI-моделей на реальных задачах

Мы представляем GDPval — новую метрику, которая оценивает производительность моделей на экономически значимых, прикладных задачах из 44 профессиональных областей.Статья | evals.openai.comНаша миссия — обеспечить то, чтобы искусственный общий интеллект (AGI) приносил пользу всему человечеству. В рамках этой миссии мы стремимся максимально прозрачно освещать прогресс того, как AI-модели учатся помогать людям в реальной жизни. Именно поэтому мы представляем GDPval

продолжить чтение

Claude Code снова удивляет — теперь уже в криптографии

Мы уже видели, как языковые модели решают задачки, над которыми профессора чесали головы годами. Видели, как они не решали задачу, а просто находили ответ, потому что знали, где копать (и не ленились, в отличие от нас, смертных). А теперь Claude Code от Anthropic залез в криптографию и починил реализацию постквантового алгоритма.Инженер писал на Go реализацию ML-DSA, всё шло по плану, пока проверки не начали сыпаться с “invalid signature”.

продолжить чтение

ИИ в белом халате: как он учится ставить диагнозы в виртуальной клинике

продолжить чтение

Будущее программирования — мультимодальное: как JanusCoder научился видеть интерфейс, который сам создает

продолжить чтение

Почему ваш AI-ассистент пишет «вырвиглазный» код, и как это исправить грубой силой

Привет, Хабр! У нас на носу 2026 год, Илон Маск обещал AGI ещё вчера (раз уж упомянул: это действительно было в одном из его интервью, где он сказал, что ожидает AGI в 25-26 годах), а AI-ассистенты для кода слышны из каждого утюга. Все мы знакомы с Cursor, многие пробовали его коммерческие (Windsurf) и открытые (Cline, Continue.dev) альтернативы. И поначалу — чистый восторг. Кажется, еще чуть-чуть, и можно будет просто говорить машине, что делать.

продолжить чтение

Rambler's Top100