llm. - страница 116

llm.

Можно ли научить ИИ писать более качественные тексты?

Эпоха больших языковых моделей (LLM, Large Language Model) снова и снова ставит перед нами вопрос о том, что отличает великую прозу от просто хорошей.

продолжить чтение

Децентрализованный ИИ: как рой нейросетей побеждает большие модели

продолжить чтение

Meta и исследователи из OpenAI: новые подходы к защите LLM от prompt injection

Команда AI for Devs подготовила перевод краткой выжимки свежих статей о безопасности LLM. Meta предлагает «Правило двух» — архитектурный принцип, ограничивающий права AI-агентов, чтобы защитить их от prompt injection. А исследователи из OpenAI, Anthropic и Google DeepMind показывают: все существующие защиты легко обходятся адаптивными атаками. На этих выходных мне попались две интересные работы о безопасности LLM и атаках через prompt injection.Agents Rule of Two: Практический подход к безопасности AI-агентовПервая статья — Agents Rule of Two: A Practical Approach to AI Agent Security

продолжить чтение

GDPval: измерение производительности AI-моделей на реальных задачах

Мы представляем GDPval — новую метрику, которая оценивает производительность моделей на экономически значимых, прикладных задачах из 44 профессиональных областей.Статья | evals.openai.comНаша миссия — обеспечить то, чтобы искусственный общий интеллект (AGI) приносил пользу всему человечеству. В рамках этой миссии мы стремимся максимально прозрачно освещать прогресс того, как AI-модели учатся помогать людям в реальной жизни. Именно поэтому мы представляем GDPval

продолжить чтение

Claude Code снова удивляет — теперь уже в криптографии

Мы уже видели, как языковые модели решают задачки, над которыми профессора чесали головы годами. Видели, как они не решали задачу, а просто находили ответ, потому что знали, где копать (и не ленились, в отличие от нас, смертных). А теперь Claude Code от Anthropic залез в криптографию и починил реализацию постквантового алгоритма.Инженер писал на Go реализацию ML-DSA, всё шло по плану, пока проверки не начали сыпаться с “invalid signature”.

продолжить чтение

ИИ в белом халате: как он учится ставить диагнозы в виртуальной клинике

продолжить чтение

Будущее программирования — мультимодальное: как JanusCoder научился видеть интерфейс, который сам создает

продолжить чтение

Почему ваш AI-ассистент пишет «вырвиглазный» код, и как это исправить грубой силой

Привет, Хабр! У нас на носу 2026 год, Илон Маск обещал AGI ещё вчера (раз уж упомянул: это действительно было в одном из его интервью, где он сказал, что ожидает AGI в 25-26 годах), а AI-ассистенты для кода слышны из каждого утюга. Все мы знакомы с Cursor, многие пробовали его коммерческие (Windsurf) и открытые (Cline, Continue.dev) альтернативы. И поначалу — чистый восторг. Кажется, еще чуть-чуть, и можно будет просто говорить машине, что делать.

продолжить чтение

Интернет будущего: в сеть выходят не люди

Введение Мы создали интернет, чтобы иметь быстрый доступ к библиотеке человеческого знания из любой точки планеты... ...Интернет создал агентов — чтобы мы перестали в него заходить. Перед написанием этой статьи я взял интервью у того, кто ближе всех к этой новой реальности — ChatGPT. “Новая эпоха — это переход от человеко-инициированного трафика к агентно-инициированному. Интернет становится машинным слоем, где LLM-агенты совершают большую часть запросов, взаимодействуют с API, индексируют данные и принимают решения без участия человека.” Тезисы 

продолжить чтение

Запускаем GPT-OSS-120B на 6 Гб GPU и ускоряем до 30 t-s. Вам нужна RAM, а не VRAM. Параметр -cmoe для ускорения MoE LLM

продолжить чтение