Будущее здесь. - страница 68

Стандарт Google позволяет ИИ-агентам создавать пользовательские интерфейсы

продолжить чтение

Обзор Gemini 3 Flash: как Google перехватывает инициативу на рынке ИИ в 2025 году

продолжить чтение

OpenAI обновляет модель Codex и добавляет программу для кибербезопасности

продолжить чтение

Андрей Карпаты: итоги LLM-экосистемы за 2025 год

Команда AI for Devs подготовила перевод обзорной статьи о ключевых сдвигах в развитии LLM в 2025 году. Андрей разбирает, почему Reinforcement Learning from Verifiable Rewards стал новой базовой стадией обучения, откуда взялся «рваный интеллект», как появился новый слой LLM-приложений и почему ИИ всё чаще «живёт» прямо на компьютере разработчика.2025 стал насыщенным и очень сильным годом прогресса в области LLM. Ниже — список лично для меня наиболее заметных и в какой-то мере неожиданных «смен парадигмы» — вещей, которые изменили ландшафт и концептуально выделились.1. Reinforcement Learning from Verifiable Rewards (RLVR)

продолжить чтение

Anthropic зарабатывает деньги, одновременно обсуждая вечную трансцендентность

продолжить чтение

Сервис для отслеживания активности спортсменов Strava сделал обзор «Год в спорте» доступным только по подписке за $80

продолжить чтение

Российский код сознания: Обзор отечественных теорий в перспективе AGI

Миллиарды долларов вкладываются в развитие ИИ на базе больших языковых моделей, инвесторы надеются, а разработчики убеждают, что AGI, сильный искусственный интеллект практически рядом. Ещё чуть-чуть параметров, ещё чуть-чуть усложнения алгоритмов и мы получим инструмент, с помощью которого переоткроем законы мироздания и решим все проблемы человечества. Здесь я согласен. Мечта стоит денег, и лучше вкладывать сюда, чем в оружие.

продолжить чтение

xAI открывает Grok Voice Agent API с задержкой ответа менее секунды

продолжить чтение

*Meta запускает PE-AV — аудио-визуальный энкодер для мультимодального ИИ

продолжить чтение

Prompt Caching: токены LLM в 10 раз дешевле — но за счёт чего?

Команда AI for Devs подготовила перевод и разбор статьи о Prompt Caching — технологии, которая делает входные токены LLM в разы дешевле и заметно снижает задержки. Внутри — подробное объяснение, что именно кэшируют OpenAI и Anthropic, как KV-кэш связан с attention в трансформерах и почему это не имеет ничего общего с повторным использованием ответов.На момент, когда я пишу эту статью, закэшированные входные токены стоят в долларах за токен примерно в 10 раз дешевле обычных входных токенов — как в API OpenAI, так и Anthropic.

продолжить чтение

Rambler's Top100