токены.

Я прочитал статью про 9 AI-ревьюеров — и сломал свой бюджет на токены

Значит так. Сижу, листаю Hacker News, натыкаюсь на пост от чувака с hamy.xyz: «9 Parallel AI Agents That Review My Code». Девять. Параллельных. Агентов. Которые ревьюят код.Я разраб и пишу на Claude Code уже год. Скиллы, субагенты, worktrees - всё как у людей. И вот читаю я этот пост и думаю: ну, у меня же уже стоит Superpowers с его code-review скиллом, но он один. А тут - девять штук. Security reviewer, performance reviewer, test quality reviewer, simplification reviewer... Каждый со своей специализацией, каждый в своём контекстном окне, каждый жрёт токены как не в себя.Естественно, я решил попробовать.Что вообще придумал этот Hamy

продолжить чтение

В компенсациях инженерам Кремниевой долины начали учитывать доступ к ИИ-моделям

Компании Кремниевой долины начали предлагать бонусы в виде компенсаций за доступ к ИИ-моделям своим инженерам. Инженеры-программисты и исследователи ИИ в технологических компаниях уже давно борются за доступ к графическим процессорам (GPU), при этом вычислительные мощности для ИИ тщательно распределяются в зависимости от того, какие проекты наиболее важны. В итоге некоторые кандидаты на вакансии начали спрашивать о том, какой бюджет на вычисления в ИИ им будет доступен, если они решат присоединиться к компании.

продолжить чтение

Stripe нашла способ компенсировать затраты пользователей на ИИ

Stripe выпустила предварительную версию новой функции, которая может помочь стартапам в сфере ИИ и другим компаниям решить проблему перекладывания базовых затрат на использование моделей на своих клиентов.

продолжить чтение

Куда и почему уходят бабки на нейросети

Малоизвестный среди обычных людей факт: у нейросетей нет никаких "разговоров". Ты смотришь в веб-интерфейсе на "диалог" - но это обман, красивый фокус.Каждый раз, когда ты пишешь новое сообщение, все старые сообщения обрабатываются заново. У нейросетей по-настоящему многоразовых задач не существует. Если результат немного поменялся — тебе просто не покажут в веб-интерфейсе изменившиеся сообщения.

продолжить чтение

Как устроены AI токены: реальные расходы на запросы, принципы токенизации и разница с количеством слов

Что такое токен в искусственном интеллекте, и зачем он нуженТокен — это минимальная единица обработки данных для моделей искусственного интеллекта. Он может представлять собой:Слово;Часть слова;Знак препинания;Символ;Пробел.Токенизация это обязательный этап для обработки текста в нейросети. Она разбивает текст на набор токенов, чтобы понимать, что ей от вас надо и генерировать ответы, содержащие какой-то смысл и пользу. Кстати, одно и то же слово в одном и том же языке может разбиваться на разные токены в зависимости от написания. 

продолжить чтение

RLM-Toolkit: Полное руководство по обработке 10M+ токенов

От теории до production — архитектура, алгоритмы, безопасностьПривет, Хабр!Это исчерпывающее руководство по RLM-Toolkit — open-source библиотеке для работы с контекстами произвольной длины.Что рассмотрю:Формальная теория RLM (State Machine, рекурсия)InfiniRetri: математика attention-based retrievalH-MEM: когнитивная архитектура памятиRAG vs KAG vs GraphRAG vs InfiniRetriSecurity: CIRCLE compliance, sandbox escape preventionРеальные примеры с логами выполненияTroubleshooting и best practicesУровень: от middle до PhD-level исследований.🚀

продолжить чтение

Публичные репозитории GitLab раскрыли более 17 000 секретов

Лидерами стали учётные данные Google Cloud Platform (более 5200), за ними следуют ключи MongoDB, токены Telegram-ботов и OpenAI

продолжить чтение

А что, если MCP вам вообще не нужен?

Команда AI for Devs подготовила перевод статьи о том, почему увлечение MCP-серверами может быть избыточным. Автор показывает на практике: во многих сценариях агенты справляются куда лучше, когда работают напрямую через Bash и небольшие скрипты, без громоздких серверов, длинных описаний и лишнего контекстного шума.После нескольких месяцев безумия вокруг «агентного» кодинга Twitter всё ещё полыхает обсуждениями MCP-серверов. Раньше я делал небольшой бенчмарк

продолжить чтение

TOON: новый формат на смену JSON для более эффективного взаимодействия с LLM?

TOON — это ещё один способ записать те же самые JSON-данные, но компактнее и понятнее для моделей. Вместо  "key": "value" он использует отступы как YAML и табличную запись для массивов объектов: шапка с названиями полей, дальше строки с данными.

продолжить чтение

Prompt Caching в Claude: Как мы снизили затраты на AI в 2 раза

Prompt Caching в Claude: Как мы снизили затраты на AI в 2 разаКейс по оптимизации затрат на Claude API в проекте по автоматизации поиска работы. AI анализировал вакансии и генерировал сопроводительные письма. При 100 пользователях затраты достигали $180/месяц. Решение: Prompt Caching от Anthropic. Экономия 52% ($0.51 → $0.245 за batch из 50 вакансий). Теперь можно делать в 2 раза больше AI-вызовов с тем же бюджетом.Кому полезно: всем, кто работает с LLM API и хочет оптимизировать затраты.История: Когда AI начал съедать бюджет

продолжить чтение

12
Rambler's Top100