llm. - страница 33

llm.

Похоже, GPT-5.3 уже на подходе — и это может быть один из самых серьёзных апдейтов OpenAI за долгое время

По информации из нескольких источников, новая версия модели проходит под кодовым названием Garlic. Если верить инсайдам, GPT-5.2 был лишь промежуточным чекпоинтом — своего рода «разбавленной версией» того, чем станет 5.3.Главная цифра — 2 000 токенов в секунду. Именно такую скорость сможет выдавать арендный кодинг на базе GPT-5.3 благодаря партнёрству OpenAI с Cerebras.

продолжить чтение

RLM-Toolkit v1.2.1: Теоретические основы и оригинальные разработки

Научное исследование архитектурных решений в контексте теории информации, криптографии и когнитивных систем📌 Это продолжение статьи RLM-Toolkit: Полное руководство по обработке 10M+ токеновПервая часть охватывала практические аспекты. Здесь — глубокий теоретический анализ: от теории Шеннона до когнитивной архитектуры памяти.АннотацияНастоящая работа представляет комплексный анализ архитектурных решений RLM-Toolkit v1.2.1, разработанного в рамках проекта SENTINEL AI Security Platform.Мы демонстрируем:Криптографическую необходимость

продолжить чтение

Академия “ГлоуБайт” запустила два новых курса по работе с большими языковыми моделями

Создано с помощью GeminiАкадемия “ГлоуБайт”

продолжить чтение

Я попробовал Claude Cowork за $100-месяц

TLDR: Я использовал новый функционал от Claude - Claude Cowork, который сейчас доступен только на macOS по подписке. Я попросил его сгенерировать план изучения Go. В статье разбираю особенности и ограничения.——CoworkClaude Cowork - это новый агентский режим от Anthropic, доступный в приложении Claude Desktop.

продолжить чтение

Собираем LLM-агента на Python

Команда Python for Devs подготовила перевод статьи о том, как с помощью middleware в LangChain 1.0 собирать LLM-агентов, готовых к реальному продакшену. В материале разбираются практические паттерны: управление контекстом, защита PII, human-in-the-loop, планирование задач и интеллектуальный выбор инструментов — всё то, что отличает экспериментального агента от надёжного рабочего решения.Введение Хотели ли вы когда-нибудь расширить своего LLM-агента дополнительными возможностями, например:Суммировать сообщения, чтобы укладываться в контекстное окно;

продолжить чтение

Рекурсивные языковые модели (RLM) – парадигма 2026 года

Команда AI for Devs подготовила перевод большого исследовательского материала о рекурсивных языковых моделях (RLM). Авторы разбирают, почему простое увеличение контекстного окна больше не решает проблему долгоживущих агентов, и показывают альтернативу: обучение моделей активному управлению собственным контекстом через context folding и под-LLM. Статья основана на обширных экспериментах и даёт практический взгляд на то, каким может быть следующий шаг в развитии LLM-агентов.Как мы планируем управлять чрезвычайно длинными контекстами

продолжить чтение

ИИ лажает там где должен был сиять

продолжить чтение

Ретроспектива 2025: год LLM — практика, иллюзия и реальные сдвиги

Команда AI for Devs подготовила перевод большой обзорной статьи о 2025 годе в мире LLM. Автор подводит итоги года: от vibe coding и coding-агентов до MCP, prompt injection, локальных моделей, браузеров с ИИ и «slop» как культурного феномена.Это третья часть моей ежегодной серии обзоров всего, что произошло в сфере LLM за последние 12 месяцев. Предыдущие выпуски см. в материалах Stuff we figured out about AI in 2023 и Things we learned about LLMs in 2024.Этот год оказался насыщенным и принес с собой множество самых разных тенденций.

продолжить чтение

Я реализовал паттерн памяти из OpenAI Cookbook в Python библиотеку

Я создал agent-memory-state — open-source Python библиотеку для управления персистентной памятью AI агентов. Реализует паттерн state-based memory из OpenAI Cookbook: профиль пользователя, разделение session/global памяти, LLM-консолидация и защитные механизмы.Проблема: Агенты без памяти — безликиеКаждый раз, начиная новый разговор с AI-ассистентом, он забывает всё. Ваши диетические предпочтения, привычки в путешествиях, рабочий контекст — стёрты. Приходится объяснять одно и то же снова и снова.

продолжить чтение

RLM-Toolkit: Полное руководство по обработке 10M+ токенов

От теории до production — архитектура, алгоритмы, безопасностьПривет, Хабр!Это исчерпывающее руководство по RLM-Toolkit — open-source библиотеке для работы с контекстами произвольной длины.Что рассмотрю:Формальная теория RLM (State Machine, рекурсия)InfiniRetri: математика attention-based retrievalH-MEM: когнитивная архитектура памятиRAG vs KAG vs GraphRAG vs InfiniRetriSecurity: CIRCLE compliance, sandbox escape preventionРеальные примеры с логами выполненияTroubleshooting и best practicesУровень: от middle до PhD-level исследований.🚀

продолжить чтение

Rambler's Top100