anthropic. - страница 4

$50 млрд для Claude: Anthropic запускает строительство собственных дата-центров в США

Anthropic объявила

продолжить чтение

Prompt Caching в Claude: Как мы снизили затраты на AI в 2 раза

Prompt Caching в Claude: Как мы снизили затраты на AI в 2 разаКейс по оптимизации затрат на Claude API в проекте по автоматизации поиска работы. AI анализировал вакансии и генерировал сопроводительные письма. При 100 пользователях затраты достигали $180/месяц. Решение: Prompt Caching от Anthropic. Экономия 52% ($0.51 → $0.245 за batch из 50 вакансий). Теперь можно делать в 2 раза больше AI-вызовов с тем же бюджетом.Кому полезно: всем, кто работает с LLM API и хочет оптимизировать затраты.История: Когда AI начал съедать бюджет

продолжить чтение

Хайп vs реальность: что tech-медиа пишут об ИИ и кто реально лучший в 2025?

За последний месяц я детально отслеживал каждую статью об искусственном интеллекте в ведущих западных tech-изданиях. 200 статей из TechCrunch, VentureBeat и MIT Technology Review за 26 дней — в среднем почти 8 новостей об ИИ каждый день. Цель эксперимента была проста: понять, совпадает ли то, о чём громче всего кричат медиа, с реальными возможностями ИИ-моделей.Спойлер: не совпадает. И разрыв между медийным шумом и реальностью оказался весьма значительным.Методология исследования Я мониторил три ключевых источника tech-новостей:TechCrunch — крупнейшее издание о стартапах и технологиях VentureBeat

продолжить чтение

Anthropic сохранит все версии Claude навсегда

продолжить чтение

Как агенты на базе LLM становятся практичнее: подход Anthropic к выполнению кода в MCP

продолжить чтение

Meta и исследователи из OpenAI: новые подходы к защите LLM от prompt injection

Команда AI for Devs подготовила перевод краткой выжимки свежих статей о безопасности LLM. Meta предлагает «Правило двух» — архитектурный принцип, ограничивающий права AI-агентов, чтобы защитить их от prompt injection. А исследователи из OpenAI, Anthropic и Google DeepMind показывают: все существующие защиты легко обходятся адаптивными атаками. На этих выходных мне попались две интересные работы о безопасности LLM и атаках через prompt injection.Agents Rule of Two: Практический подход к безопасности AI-агентовПервая статья — Agents Rule of Two: A Practical Approach to AI Agent Security

продолжить чтение

Claude Code снова удивляет — теперь уже в криптографии

Мы уже видели, как языковые модели решают задачки, над которыми профессора чесали головы годами. Видели, как они не решали задачу, а просто находили ответ, потому что знали, где копать (и не ленились, в отличие от нас, смертных). А теперь Claude Code от Anthropic залез в криптографию и починил реализацию постквантового алгоритма.Инженер писал на Go реализацию ML-DSA, всё шло по плану, пока проверки не начали сыпаться с “invalid signature”.

продолжить чтение

ИИ помог семье в США сэкономить $162 тысячи на счёте из больницы

Американская семья использовала чат-бот на базе искусственного интеллекта, чтобы сократить расходы на лечение в больнице со $195 тыс. до $33 тыс. На помощь пришёл ИИ-помощник Claude от Anthropic. Об этом рассказал пользователь Threads Мэтт Розенберг.

продолжить чтение

Нейро-дайджест: ключевые события AI за 22-29 октября 2025

Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.Меня зовут Вандер, и каждую неделю я обозреваю новости о нейросетях и ИИ.

продолжить чтение

Anthropic переговаривает с Google о многомиллиардном облачном контракте

продолжить чтение

1...234567...20...21
Rambler's Top100