Будущее здесь. - страница 69

xAI открывает Grok Voice Agent API с задержкой ответа менее секунды

продолжить чтение

*Meta запускает PE-AV — аудио-визуальный энкодер для мультимодального ИИ

продолжить чтение

Prompt Caching: токены LLM в 10 раз дешевле — но за счёт чего?

Команда AI for Devs подготовила перевод и разбор статьи о Prompt Caching — технологии, которая делает входные токены LLM в разы дешевле и заметно снижает задержки. Внутри — подробное объяснение, что именно кэшируют OpenAI и Anthropic, как KV-кэш связан с attention в трансформерах и почему это не имеет ничего общего с повторным использованием ответов.На момент, когда я пишу эту статью, закэшированные входные токены стоят в долларах за токен примерно в 10 раз дешевле обычных входных токенов — как в API OpenAI, так и Anthropic.

продолжить чтение

Atlas от OpenAI получает мультипрофили и обновления для рабочих пространств

продолжить чтение

Google выпускает T5Gemma 2 — мультимодальная модель с поддержкой длинного контекста

продолжить чтение

VS Code добавляет поддержку Agent Skills для динамической автоматизации ИИ

продолжить чтение

Битва титанов ИИ: рейтинг топ-5 умнейших моделей конца 2025 года

Не так давно я уже устраивал битву между GPT-5, Gemini 3 Pro и Claude Opus 4.5. Затем рассмотрел Grok-4.1, после чего возникла идея расширить это сравнение и по итогам составить топ-5 лучших моделей среди указанных конкурентов.Сегодня в соревновании участвуют: GPT-5.2, Claude Opus 4.5, Gemini 3 Pro, DeepSeek v3.2 и Grok-4.1. Делайте ваши предположения - а я начинаю сравнение.

продолжить чтение

OpenAI представляет GPT-5.2-Codex — продвинутый инструмент для программной инженерии

продолжить чтение

Мы тратим на ИИ в 2,4 раза больше, чем на ядерную программу в разгар Холодной войны. И что мы получили взамен?

Фото: Matt Park, Unsplash

продолжить чтение

OpenAI выпустили GPT-5.2-Codex

GPT-5.1-Codex-Max в прошлый раз сделал ставку на масштаб: компакция контекста и агентные циклы длиной в сутки. GPT-5.2-Codex развивает ту же идею, но делает её более надёжной и прикладной для реальных продакшн-сценариев.Если 5.1-Codex-Max показывал максимум на SWE-Bench и SWE-Lancer, то 5.2-Codex подтверждает прогресс уже на agent-ориентированных бенчмарках:SWE-Bench Pro: 56.4% (против 55.6% у GPT-5.2)Terminal-Bench 2.0: 64.0%, уверенное лидерство в реальных CLI-задачах

продолжить чтение

Rambler's Top100