FT: Anthropic получит свыше $1 млрд от Google
Компания в сфере искусственного интеллекта Anthropic получит более $1 млрд инвестиций от Google, пишет Financial Times со ссылкой на четырёх источников. По их словам, IT-гигант уже вложил в конкурента OpenAI около $2 млрд и продолжает увеличивать долю в Anthropic.
Дарио Амодеи, CEO Anthropic: «ИИ может превзойти человеческий разум к 2027 году»
Генеральный директор компании Anthropic Дарио Амодеи отметил, что его стартап в области ИИ спешит обеспечить необходимую вычислительную мощность, чтобы удовлетворить растущий спрос на генеративный чат-бот Claude.
Почему надо беспокоиться о неисправимости Claude
Перевод поста Скотта Александера, где он подробнее объясняет, какие конкретно проблемы создаёт склонность ИИ сопротивляться переобучению, продемонстрированная Anthropic на Claude в недавнем исследовании. Следует за постом "Claude сопротивляется".На прошлой неделе я написал о том, что “Claude сопротивляется
Музыкальные издатели достигли соглашения с Anthropic по поводу обучения ИИ и текстов песен, защищённых авторским правом
Три крупных музыкальных издателя ABKCO Records, Universal Music и Concord Music заключили соглашение с компанией в сфере искусственного интеллекта Anthropic о текстах песен и обучении нейросетей. Договорённость подразумевает сохранение текущих ограничений, которые не позволяют чат-боту Claude обучаться на текстах песен, принадлежащих лейблам, или создавать новые тексты на основе материалов, защищённых авторским правом.
Создание эффективных агентов
За прошедший год мы поработали с десятками команд, создающих агентов на основе больших языковых моделей (LLM) в различных отраслях. Последовательно мы отмечали, что самые успешные реализации не использовали сложные фреймворки или специализированные библиотеки. Вместо этого они строились на простых, составных паттернах.В этой статье мы делимся тем, что узнали, работая с нашими клиентами и создавая агентов самостоятельно, а также даём практические советы разработчикам по созданию эффективных агентов.Что такое агенты?
Контекстное окно в 200 тыс. токенов Claude 2.1 подвергли проверке
Anthropic Компания Anthropic представила Claude 2.1, следующую версию своей языковой модели. В 2.1 заявлены разнообразные улучшения точности и 50-процентное сокращение частоты галлюцинаций. Новая модель удваивает размер контекстного окна со 100 тыс. токенов до 200 тыс. Грег Камрадт протестировал эффективность памяти Claude 2.1 в зависимости от длины контекста и выдал несколько рекомендаций.